Johann Jungwirth, Mobileye

Ein Stück weit musste Mobileye die Rolle eines Herstellers einnehmen, rekapituliert Johann Jungwirth, Senior Vice President of Autonomous Vehicles bei Mobileye. (Bild: Mobileye)

Herr Jungwirth, Robotaxi-Dienste haben jüngst herbe Rückschläge erlebt. Schmälert das Ihre Zuversicht für das autonome Fahren?

Nein, das autonome Fahren entwickelt sich entlang der erwarteten Zeitschiene. Solche Lernerfahrungen sind Teil der Entwicklung. Natürlich muss diese gewissenhaft durchgeführt werden. Sicherheit geht immer vor. Jeder Fall muss einzeln analysiert und die Ursache gefunden werden. Der größte Prozentsatz der Unfälle von Anbietern wie Waymo oder Cruise ist allerdings auf die Fehler menschlicher Fahrer zurückzuführen. Man kann also nicht grundsätzlich den Fahrzeugen die Schuld geben. Zudem wird vermehrt virtuell getestet – Simulation, Resimulation, Hardware-in-the-Loop und Software-in-the-Loop. Die Anzahl der virtuellen Testkilometer ist schon jetzt um ein Vielfaches höher als im Realbetrieb.

Der Durchbruch steht also weiterhin kurz bevor?

Realistisch halte ich das Jahr 2025 oder 2026. Die Zeitscheine ist momentan eher getrieben durch die neuen Fahrzeugplattformen. Wenn diese bereit für fahrerlosen Betrieb sind und geeignete Redundanzen bei Bremse, Lenkung und Spannungsversorgung aufweisen, dann steht der nächste Schritt an. Dementsprechend passt unser Zeitplan zu dem der Fahrzeughersteller und Mobilitätsanbieter – sowohl für die kleineren Robotaxis als auch die größeren AV-Shuttles.

Apropos Zeitplan: Vor zwei Jahren hat Mobileye einen gemeinsamen Robotaxi-Dienst mit Sixt angekündigt. Bislang ist auf den Straßen Münchens davon nichts zu sehen. Woran hakt es?

In einer initialen Pilotphase wurde Anfang 2023 ein Entwicklungsfahrzeug mit der Mobileye AV Technologie in München getestet. Die Stadt bietet alles, was wir für unsere Tests brauchen. Es gibt schlechtes Wetter und Schnee im Winter sowie über das ganze Jahr verteilte, regnerische Tage. Wir nutzen den Standort deshalb komplementär zu unseren Erfahrungen in Jerusalem, Paris, Detroit, Austin und Tokyo. Momentan definieren die Projektpartner die nächsten Schritte und wie das Projekt in die nächste Phase übergehen kann. Allerdings ist im Verlauf des Projekts klar geworden, dass Fahrzeuge benötigt werden, die speziell für den Einsatz von AV-Services konzipiert sind. Daher arbeiten wir gerade eng mit OEM-Partnern zusammen, um solche Fahrzeuge auf die Straße zu bringen.

Können Sie ein Beispiel geben?

Unserer Partnerschaft mit Volkswagen: Der ID.Buzz mit Mobileye Drive ist für uns ein wichtiges strategisches Projekt. Wir haben in Deutschland sowie den USA derzeit eine zweistellige Anzahl an Fahrzeugen auf der Straße und ich bin guter Dinge, dass wir im Zeitplan von Volkswagen bleiben.

Auch andernorts sollte Mobility-as-a-Service ausgebaut werden – sei es mit Moovit oder Beep. Sind diese Pläne in den Hintergrund gerückt?

Allen voran wollen wir unser Selbstfahrsystem Mobile Drive anbieten. Das ist unser Kerngeschäft und darauf fokussieren wir uns auch. Wir stellen die Technologie und damit gewissermaßen den Fahrer bereit. Der Go-to-Market-Plan erfolgt über unsere Herstellerpartner wie zum Beispiel Volkswagen, Schaeffler, VDL oder Holon. Wir bedienen damit kleinere Fahrzeuge wie den ID.Buzz sowie größere Shuttles für über acht bis zwölf Personen.

Im Interview mit automotiveIT sagten Sie einst: „Niemand bedient das autonome Fahren so umfassend wie wir.“ Hat sich dies mit der neuen Strategie geändert?

Wir sind weiterhin breit aufgestellt und das ist auch gut so. Trotzdem mussten wir unsere Strategie überdenken. Vor drei oder vier Jahren war das autonome Fahren noch nicht so wichtig für die großen Autohersteller. Dementsprechend mussten wir anfangs Fahrzeuge wie den Nio ES8 einkaufen, aufbauen und für die notwendigen Freigaben sorgen. Ein Stück weit haben wir uns dadurch von unserem Kerngeschäft wegbewegt und die Rolle eines Herstellers eingenommen. Das ist etwas, was wir nicht unbedingt wollten, aufgrund der Situation aber mussten. Mittlerweile klopfen viel mehr Autohersteller bei uns an. Ihre Fahrzeugplattformen sind konzipiert für den fahrerlosen Betrieb. Wir können uns auf unsere Stärken und den Kern unseres Geschäftsmodells konzentrieren – die Technologie hinter dem autonomen Fahren. Beim ID.Buzz existiert beispielsweise eine klassische Aufteilung: Wir haben die Komponenten – das System Mobileye Drive – geliefert und Volkswagen hat die gesamte Fahrzeugintegration übernommen. So wird es meines Erachtens auch in Zukunft weitergehen.

Hardware und Software gehen Hand in Hand, doch werden zunehmend komplexer – von den Steuergeräten über die Sensorik bis hin zu HD-Karten, Bildverarbeitung und KI. Wo ziehen Sie die Grenze bei Entwicklung und Produktion?

Wir müssen alle Kerntechnologien beherrschen. Das sind selbstverständlich hohe Investitionen, wenn man die gesamte Signalverarbeitungskette betrachtet. Die Gründung von Mobileye fußt auf kamerabasierter Bildverarbeitung und den dazugehörigen SoCs. Das sind seit jeher unsere Kernkompetenzen. Dennoch stellen wir keine Kameras her, sondern entwickeln, designen und spezifizieren sie. Das heißt, wir begleiten den kompletten Optical Path der Linsen, arbeiten für die Produktion aber mit Partnern zusammen. Auf der Softwareseite bedienen wir hingegen nahezu alles: Das reicht von Umfelderfassung und Datenfusion über Fahrstrategie und Responsibility-Sensitive Safety bis hin zu Applikationen und AV-Karten. Die für den AV-Betrieb notwendige Software im Steuergerät kommt im Prinzip von uns.

Und der nächste große Wurf gelingt bei der Sensorik?

Bei der Radarsensorik wollen wir künftig ebenfalls zu den Vorreitern gehören. Deshalb haben wir Imaging Radar als ein Zukunftsfeld für uns ausgemacht. Für die Fahrzeugfront bieten wir einen Imaging Radar mit 1536 virtuellen Kanälen an, für die Seite und das Heck sind es 384 virtuelle Kanäle. Mit diesen hochauflösenden, softwaredefinierten Sensoren kann während der Fahrt zwischen Long-, Medium-, Short- und Ultra-Short-Range hin und her geschaltet werden. Lidar-Sensoren kaufen wir derzeit zu, doch wir haben für die nächste Generation bereits einen eigenen Sensor in der Entwicklung. Im Gegensatz zu den aktuellen Time-of-Flight-Sensoren wird es sich dabei um einen FCMW-Lidar handeln.

Was erhoffen Sie sich von der FCMW-Messmethode?

Jeder Messpunkt des Lidars erhält dann Angaben zur Geschwindigkeit. Dadurch lässt sich über die Frames hinweg die Beschleunigung einzelner Objekte bestimmen. Das ist phänomenal und im Vergleich zum ToF-Verfahren ein Unterschied wie Tag und Nacht.

Die nächste Generation des EyeQ wird ebenfalls als großer Schritt angepriesen. Was kann der Chip leisten und wann wird er den Weg ins Auto finden?

Derzeit ist die sechste Generation des EyeQ High noch in der Entwicklung. Ab nächstem Jahr werden wir schrittweise über B- und C-Muster in die Serie gehen, um 2025/26 das neue Mobileye Drive damit auszustatten. Das System wird dann auf vier SoCs basieren – zwei auf dem Primary Board und zwei auf dem Secondary Board. Zum Vergleich: Aktuell nutzen wir insgesamt acht SoCs der fünften Generation und liegen damit bei 650 Watt Leistungsaufnahme. Künftig werden es etwa 350 Watt sein, was Elektrofahrzeugen eine zusätzliche Reichweite beschert. Das Thema Effizienz ist uns bei neuen SoCs immens wichtig. Wir setzen in der Industrie den Maßstab, wie viel Leistung man pro Watt bekommt. Außerdem sind unsere SoCs bei Datenverarbeitung, neuronalen Netzen oder künstlicher Intelligenz genau auf die Anforderungen des autonomen Fahrens zugeschnitten.

Ab der Neuen Klasse richtet sich BMW beim autonomen Fahren neu aus. Weshalb endet die Partnerschaft mit Mobileye?

Da müssen Sie bei unseren Kollegen nachfragen (lacht). Am Ende ist es eine Herstellerentscheidung. Wir fügen uns, halten eine erneute Zusammenkunft aber nicht für unmöglich. Manchmal gibt es eben derartige Wechsel, auch wenn sie bei langjährigen Partnerschaften eher selten sind. Meine Hoffnung ist, dass es sich um eine Wellenbewegung handelt, durch die sich neue Möglichkeiten ergeben. Momentan arbeiten wir mit BMW jedenfalls noch zusammen. Alles, was heute an Fahrerassistenzsystemen auf der Straße ist, ist powered by Mobileye.

Welche Autohersteller beliefern Sie zurzeit? Wie unterscheiden sich deren Anforderungen und Herangehensweisen?

Wir arbeiten mit fast allen großen und auch kleineren Autoherstellern zusammen. Dazu zählen etwa der Volkswagen-Konzern, Stellantis oder die Renault Group samt deren Allianz-Partner Nissan. Es sind aber auch viele chinesische Hersteller darunter. Nicht ohne Grund ist Mobileye SuperVision zuerst in China auf den Markt gekommen. Nach der Integration bei Zeekr wird das System auf andere Marken im Geely-Konzern ausgerollt – Polestar und Smart zum Beispiel. Vor nicht allzu langer Zeit haben wir eine erweiterte Partnerschaft mit Polestar verkündet, um mit dem Mobileye Chauffeur ein Eyes-off/Hands-off-System zu integrieren. Die größten Unterschiede sehe ich deshalb bei chinesischen Herstellern: Sie sind ungemein innovativ, umsetzungsstark und mutig. Sie wollen Technologieführer sein und an Fahrzeugen wie dem Zeekr 001 lässt sich dies gut erkennen.

Welche Komponenten werden für das SuperVision-System genutzt?

Das System besteht aus elf Kameras, davon sieben Acht-Megapixel-Kameras für den Frontbereich. Zudem nutzen wir einen Frontradar, manche Hersteller setzen zusätzlich vier weitere Radarsensoren ein. Dazu kommen zwölf Ultraschallsensoren für das Parken und unser Steuergerät, das momentan mit zwei EyeQ5 SoCs bestückt ist.

Geht das angekündigte Chauffeur-System im Polestar 4 noch einen Schritt weiter?

Ja, weil wir dafür den EyeQ6 mit Primary und Secondary Board nutzen werden. Das Fahrzeug ist für Eyes-off/Hands-off ausgelegt und weist alle notwendigen Redundanzen im Bordnetz sowie bei den Sensoren auf. Damit ermöglichen wir das Abwenden von der Fahraufgabe auf Highways bis zu einer Geschwindigkeit von 130 km/h. Alles darüber hinaus – wie Verkehrsknotenpunkte oder innerstädtischer Verkehr – hängt anschließend von der Ausstattung mit Imaging Radar, Lidar sowie weiteren Chips ab.

Zweifelsohne haben die Hersteller in den vergangenen Jahren eine Menge von Tech-Playern gelernt. Gilt das auch in umgekehrter Weise?

Definitiv, wir haben sehr viel gelernt und sind froh über diese Beziehungen. Es ist ein gutes Miteinander. Wir haben seit den ersten Versuchen, Eyes-off/Hands-off auf die Straße zu bringen, gemeinsam Erfahrungen gesammelt. Dabei haben wir vor allem profitiert, wenn es um Qualitätsanforderungen, Automotive-Spezifikationen, Validierung oder Sicherheitsaspekte geht.

Zur Person:

Johann Jungwirth, Mobileye

Johann „JJ“ Jungwirth ist Senior Vice President of Autonomous Vehicles bei Mobileye. Bevor er den Posten im Juli 2022 übernahm, war er bei der Intel-Tochter bereits als Vice President of Mobility-as-a-Service tätig. Zu den vorherigen Arbeitgebern zählen etwa Mercedes-Benz sowie die Volkswagen AG. Beim Volumenhersteller hatte er die Positionen als Chief Digital Officer und Executive Vice President of Mobility Services inne.

Sie möchten gerne weiterlesen?