Herr Seiberth, Accenture hat kürzlich eine Machbarkeitsstudie bezüglich des autonomen Fahrens durchgeführt. Zu welchem Ergebnis sind Sie gekommen?
Bei der Diskussion um das autonome Fahren gibt es eine Menge an Unklarheiten und Unschärfen. Das Kernergebnis unserer Studie: SAE-Level 5 ist nicht möglich. Und zwar nicht nur heute, sondern wahrscheinlich prinzipiell nicht. Unserer Meinung nach hat sich durch den Fokus auf Level 5 der Blick auf die eigentlich interessanten Use Cases verstellt, mit denen sich im Vergleich zu höher automatisierten Leveln bereits heutzutage Umsatz generieren lässt. Alle konzentrieren sich bei diesem Thema darauf, möglichst weit zu springen, anstatt das Naheliegende zu monetarisieren. Neben dem operativ uneingeschränkten Fahren auf Level 2 könnte etwa das vollautonome Parken ein gigantischer Anwendungsfall werden. Auch die Logistik wird unseres Erachtens eine bedeutende Rolle spielen, weil sich dort enorme Kosten einsparen lassen – sei es auf der Langstrecke, der letzten Meile oder in Häfen. Ridehailing ist aktuell hingegen kein großes Geschäft. Dafür sind die Geofences, also die abgesteckten Bewegungsradien, viel zu klein. Zudem hat es aufgrund der festgelegten Haltepunkte bislang den Charakter von Bus oder Bahn, fällt also eher unter den Bereich des ÖPNVs.
Warum ist autonomes Fahren auf Level 5 nicht möglich?
Der Unterschied zwischen Level 4 und 5 besteht im Umfang des Einsatzgebietes – der sogenannten Operational Design Domain. Bis Level 4 ist diese eingeschränkt, Level 5 bietet eine vollkommene, operative Freiheit. Für Letztere müsste das Fahrzeug mit sehr vielen neuen Situationen umgehen. Das ist etwas, was Maschinen im Vergleich zum Menschen nicht vollumfänglich leisten können – eines der Kernprobleme der aufgabenbasierten künstlichen Intelligenz, die wir heute haben. Darüber hinaus können Kamera- und KI-Systeme unterschiedlichen Störungen unterliegen sowie manipuliert werden. In Kombination mit Kartendaten sowie Infrastrukturvernetzung wäre dies zwar zu bewältigen, dafür müsste jedoch jeder Zentimeter der Weltkarte fortlaufend aktualisiert werden. Die weltweite Infrastruktur mit den notwendigen Redundanzen zu versehen, erscheint finanziell ebenso nicht umsetzbar. Driver- und Operational-Independence zugleich sind aktuell also nicht möglich. Ich bin sogar skeptisch, ob dies jemals realisierbar ist. Durch eine Kombination aus mehreren Technologien kann die ODD meines Erachtens lediglich vergrößert werden. Dabei ist neben Zusatztechnologien und der Restriktion des Einsatzgebietes auch eine Form der menschlichen Überwachung unabdingbar.
Kann künstliche Intelligenz also nicht den notwendigen Push beim autonomen Fahren liefern?
Dafür bräuchte es eine menschenähnliche Intelligenz. Heutzutage gibt es nur aufgabenbasierte KI-Systeme. Aus einer solchen „Narrow AI“ entsteht jedoch keine „General AI“, die auf Basis von wenigen Daten lernt, mit Neuem umzugehen. Die Narrow AI ist auf eine spezielle Aufgabe trainiert, kann keinen Transfer leisten und entwickelt zu keinem Zeitpunkt einen Begriff, also ein abstrahiertes Konzept. Ihr Lernverhalten gleicht nicht dem Experimentieren von Kindern, sondern erfolgt durch Adaption anhand von Beispielen. Wenn etwas nicht im Datensatz vorhanden ist, kann es nicht verarbeitet werden. Der Mensch kann hingegen sehr gut mit Neuem oder Unbekanntem umgehen. Er kann zum Beispiel Logik und Analogien anwenden. Selbst unbekannte Zeichen können durch den semiotischen Prozess interpretiert werden. Der Mensch geht in eine Erwartungswelt hinein und wendet seine Aufmerksamkeit nur auf das, was davon abweicht. So etwas können KI-Systeme nicht. Sie haben kein Modell der Welt.
Worauf sollten sich Autohersteller bei der Entwicklung autonomer Fahrzeuge dann konzentrieren?
Heutzutage ist der Edge Case die wichtigste Währung. Der Normalfall lässt sich relativ schnell trainieren. Danach zählen nur noch die Ausnahmen. Je mehr davon etwa durch Rekombinationen abgedeckt werden, desto größer wird der Einsatzbereich autonomer Fahrzeuge. Tesla hat beispielsweise mit dem Shadow Mode eine simple, aber sehr effiziente Möglichkeit gefunden, solche Edge Cases zu antizipieren. Als unsichtbarer Bestandteil der ausgelieferten Autos erfasst er Widersprüche zwischen den Entscheidungen des Fahrers und des Systems. Diese Datensets werden sogleich ins Backend geladen und ausgewertet. Übermitteln alle Fahrzeuge ihre vergleichbaren Daten hinsichtlich einer Begebenheit oder eines Objekts, kann das System schließlich mit diesem Edge Case trainiert werden. Würde etwa Volkswagen seine gesamte weltweite Flotte mit dieser Technologie ausstatten, könnten die Robotaxis der Tech-Unternehmen – mit ihren stark eingegrenzten Geofences – keineswegs mithalten. Die etablierten Autohersteller könnten beim autonomen Fahren also allein aufgrund ihres Kundenstamms die Nase vorn haben. Denn mit einer riesigen Flotte lassen sich umfangreiche Datensets generieren. Es ist somit nicht vorbestimmt, dass die Tech-Player im Sinne einer Asymmetrie den Markt beherrschen. Die OEMs haben eine echte Chance, wenn sie ihre Vorteile ausspielen und sich zu Anbietern von softwarebasierten Fahrzeugen transformieren.
Zur Person:
Gabriel Seiberth ist Managing Director bei Accenture im Bereich Industry X und berät in dieser Funktion vornehmlich Kunden aus der Automobilbranche. Zu seinen Fokusthemen gehören neben digitaler Transformation und dem Software-defined Car auch die Grenzen und Chancen des autonomen Fahrens.