Volvo Infotainment und Sprachsteuerung / Das können die Voice Control-Systeme der Zukunft / Mercedes bringt ChatGPT ins Auto

Die Sprachsteuerung im Fahrzeug kann bereits heute vieles. Durch den Siegeszug von KI eröffnen sich für die Zukunft jedoch noch weit größere Chancen. (Bild: Volvo)

Der Anfang war wortkarg. Vor gut 20 Jahren ließ sich das Autotelefon einer S-Klasse mit zwei Dutzend präzise ausgesprochenen Worten dirigieren. Halbwegs. Damals war die Linguatronic der letzte Schrei. Heute wäre sie eine Zumutung. Denn in unseren Autos hat sich ein geradezu kumpelhafter Ton eingeschlichen. „Hey, fahr‘ mich zum Motel One am Bahnhof und dreh‘ die Musik auf“ – eine Sprachsteuerung, die up-to-date ist, wird diesen Worten fraglos Taten folgen lassen.

„Auf dem Gebiet der Sprachsteuerung im Auto spielt sich in schnellem Takt eine kleine Revolution ab“, bemerkt Mario Thielert, Senior Expert Speech Applications bei Continental, „Die semantische Analyse ist beeindruckend.“ Vorbei die Zeiten, als man mit gelernten und hochgestochen ausgesprochenen Kommandos versuchte, einzelne Funktionen in Gang zu setzen. Die Vorzeichen haben sich umgekehrt: Heute muss die Technik Vokabeln pauken - was ihr dank KI gut gelingt.

Mercedes bringt ChatGPT ins Auto

Die jüngste Entwicklung liefert Mercedes-Benz: Mit Hilfe von ChatGPT soll die Sprachsteuerung per Aufruf „Hey Mercedes“ des MBUX Sprach-Assistenten noch intuitiver werden. Die Beta-Phase findet in den USA statt. Mehr als 900.000 Fahrzeuge wären technisch für die Testphase ausgerüstet, die Teilnahme ist freiwillig.
Gerade im Auto macht Sprachbedienung Sinn, was sich auch am Markt spiegelt, wie eine Studie von Jahresanfang des IT-Branchenverbandes Bitkom zeigt, in der es heißt: „Den größten Schritt nach vorn bei der Sprachsteuerung hat zuletzt das Auto gemacht: Schon fast die Hälfte der Nutzerinnen und Nutzer erteilt dem Pkw Sprachbefehle.“ Gegenüber dem Vorjahr habe das Auto damit um 17 Prozentpunkte zugelegt. „Die Automobilhersteller haben die Sprachsteuerung in Fahrzeugen in den vergangenen Jahren massiv ausgebaut“, sagt Dr. Sebastian Klöß, Bitkom-Experte für Consumer Technology, „Sprachassistenten werden sich als dominierender Weg etablieren, die Funktionen des Fahrzeugs unterwegs zu bedienen.“

So sieht das auch Continental-Experte Thielert: „Fahrzeuge sind in den letzten Jahren immer komplexer geworden. Eine natürlichsprachliche Bedienung bietet einen Ausweg, was das Fahren komfortabler und sicherer macht, wenn die Hände am Lenkrad und die Augen auf der Straße bleiben.“ Nicht mehr durch Navi-Menüs browsen, sondern sprechen und auf der günstigsten Route ankommen.

Sprachsteuerung kommt in immer mehr Fahrzeugen an

Was nicht mehr ein Privileg für Oberklasselimousinen ist, sondern inzwischen bei Kompakten zum guten Ton zählt. Laura, die Sprachassistentin von Škoda, versteht nicht nur nuschelige Sätze, sondern auch verschiedene Sprachen und Dialekte, um Navigation, Infotainment oder Klimaanlage zu bedienen. Sätze wie „Meine Füße sind kalt“ oder „Die Scheibe beschlägt“ genügen, damit die Klimatisierung angepasst wird. Die Lösung aus dem VW-Konzernbaukasten verfügt dank eSIM über eine ständige Internetverbindung, so dass die sprachgesteuerten Assistenzsysteme nach Analyse der Onboard- und Online-Daten die Wünsche Fahrender flugs umsetzen können.

Löst die Sprachsteuerung die Knöpfe im Auto ab?

Lösungen wie Laura sind branchenweit Stand der Dinge. Dass nun aufgrund der rasanten Entwicklung künftig Knöpfe und Touchscreens überflüssig werden, davon geht Guido Meier-Arendt, Principal Expert Human Machine Interface bei Continental nicht aus: „Es werden weiterhin verschiedene Bedienkonzepte nebeneinander existieren – je nachdem, was für welche Aufgabe am besten geeignet ist.“ So sei Sprache beispielsweise für Suchanfragen das Medium der Wahl, Knöpfe jedoch für häufig genutzte Funktionen wie etwa die Fensterheber oder Lautstärkeregler deutlich geeigneter. „Außerdem gilt es, Nutzervorlieben zu berücksichtigen. Nicht jeder spricht gern mit seinem Auto“, sagt Meier-Arendt.

Auch bei Ford hält man an multimodalen Bedienkonzepten fest: „Wichtig ist, die Kundenwünsche in den Mittelpunkt zu stellen - nicht alles, was technisch machbar ist, wird vom Kunden akzeptiert“, lassen die Kölner wissen, „Sollte es also künftig technisch machbar sein, auf Touchscreens zu verzichten, heißt dies nicht automatisch, dass die Kunden dies befürworten. Es gilt, den Mittelweg zwischen technisch Machbarem und der Kundenakzeptanz zu finden.“ Bei Grundfunktionen wird es wohl bei Hard- und Softkeys bleiben.

Amazon, Apple und Google forcieren die Sprachsteuerung im Auto

Doch darüber hinaus tritt die Sprachsteuerung in eine neue Ära ein und wird durchaus dominieren. Mächtige Treiber der Entwicklung sind Amazon, Apple, Android & Co., aber auch kleinere Player wie das auf natürlichsprachliche Softwarelösungen spezialisierte Unternehmen Cerence (ehemals Nuance Automotive). Natürlich entwickeln zudem OEMs eigene Sprachassistenten – und kombinieren diese zunehmend mit jenen aus dem Silicon Valley. So werden unter anderem Audi und Volvo auf das Betriebssystem Android Auto setzen und damit auf die Sprachsteuerung des Google Assistenten. VW integriert Amazons Assistent Alexa, mit dem sich unter anderem von unterwegs aus das Smart Home steuern lässt. Auch Ford integriert seit August 2023 Alexa für den vollelektrischen Mustang Mach E und Mustang Mach-E GT sowie den Ford Focus und Ford Focus ST. Neben der Integration von ChatGPT ertüchtigt Mercedes seine Fahrzeuge für den Dialog mit Alexa und Google Home – und zwar so, dass man bereits vom Wohnzimmer aus die Navi für die kommende Fahrt einstellen kann oder kurz checkt, ob ein Service ansteht oder getankt werden muss.

Unlängst teilte BMW mit, bei der Sprachsteuerung künftig auf Amazon zu setzen: „Mit der Alexa-Technologie schaffen wir einen noch natürlicheren Dialog zwischen Fahrer und Fahrzeug“, frohlockte Stephan Durach, Senior Vice President Connected bei BMW, bei der Ankündigung der Partnerschaft, „Damit heben wir das digitale Erlebnis im Fahrzeug nochmal auf eine neue Ebene.“ Unternehmen könnten mit dem Alexa Custom Assistant „schneller und einfacher individuelle, intelligente Assistenten für praktisch jedes Gerät entwickeln und vermeiden die Kosten und Komplexität einer kompletten Eigenentwicklung“, unterstrich Dave Limp, Senior Vice President of Devices and Services bei Amazon.

Wobei die Bayern wie viele andere OEMs zweigleisig fahren werden: Alexa wird in den bekannten hauseigenen BMW Sprachassistent integriert. Die Arbeitsteilung: Alexa kümmert sich um das Entertainment an Bord oder das Smart Home und der Assistent von BMW um alles rund ums Fahrzeug. Im September zur IAA möchten die Münchner Näheres verraten.

Was kann die Automotive-Sprachsteuerung von morgen?

Im reibungslosen Zusammenspiel interner und externer Lösungen sieht Mario Thielert von Continental noch eine herausfordernde Entwicklungsaufgabe: „Kunden erwarten mehr als einen Assistenten im Auto. Daher gilt es, verschiedene sprachgesteuerte Systeme nahtlos zu integrierten, so dass die Systeme automatisch im Hintergrund entscheiden, wer wann was steuert, ohne dass der Bediener das merkt.“ Natürlich werden dann auch Keywords wie 'Hey, Mercedes!' überflüssig werden. Die Systeme fühlen sich direkt und korrekt angesprochen, denn sie wissen dank künstlicher Intelligenz zwischen sie betreffenden Kommandos oder Hintergrundgeräuschen zu unterscheiden. Mehr noch: „Mittelfristig erkennt das System die Stimmung des Fahrers, seine körperliche und mentale Verfassung“, wirft Meier-Arendt einen Blick in die nähere Zukunft.

Fahrzeuge wie der chinesische Ora Funky Cat erkennen bereits anhand der Wortwahl sowie dem Tonfall die Gefühlslage und reagieren darauf mit passender Musik, Beleuchtung oder auch gezielter Ansprache. In der KI-basierten Emotionserkennung sieht Meier-Arendt einen nächsten wichtigen Schritt für die Systeme: „Wird beispielsweise bei automatisiertem Fahren Angst detektiert, kann dieser mit Erklärungen dazu, was gerade passiert, begegnet werden. Oder im Stau kann ein antizipierendes System anstehende Termine verschieben oder gerade passende Musik sorgen, damit sich der Fahrer wohler fühlt“, veranschaulicht der HMI-Experte, „Durch KI erfährt die User-Experience einen ungeheuren Qualitätssprung.“

Denn die Systeme werden empathischer, können Wünsche vorhersehen, weil sie mit jeder Fahrt mehr über Gewohnheiten und Vorlieben ihrer Nutzer lernen – auch, wann diese in Ruhe gelassen werden möchten.

Sie möchten gerne weiterlesen?