Spätestens seit der IAA Mobility 2021 hat das autonome Fahren nach einiger Zeit der Funkstille wieder Hochkonjunktur. Einige Ankündigungen wurden während der Neuauflage der traditionsreichen Automesse seitens Herstellern, Zulieferern und Techplayern gemacht.
In Deutschland wird die Renaissance auch durch die Politik befeuert: Mitte Februar verabschiedete die Bundesregierung einen Gesetzentwurf, der einen Rechtsrahmen für autonome Fahrzeuge auf Level vier in bestimmten Bereichen des öffentlichen Straßenverkehrs setzen soll.
Ungeachtet dessen, dass bei dieser politischen Initiative noch viele offene Punkte in Sachen Haftung, Ethik oder Datenschutz aus dem Weg geräumt werden müssen, bleiben für Hersteller und Tech-Unternehmen weiterhin auch viele technische Aspekte eine Herausforderung. Allen voran der Umgang mit den Terabytes an Daten, die ein vollvernetztes und selbstlenkendes Fahrzeug täglich produziert.
500 Millionen Testkilometer bei BMW
BMW hat eigens fürs autonome Fahren vor zwei Jahren zusammen mit IT-Dienstleister DXC Technology eine Entwicklungsplattform aus der Taufe gehoben, um die Sicherheit und Zuverlässigkeit der Systeme zu verbessern.
„Unsere datengetriebene Entwicklung ist eine der wichtigsten Voraussetzungen für die Entwicklung des automatisierten Fahrens“, betont Nicolai Martin, seit vergangenem Jahr Bereichsleiter für automatisiertes Fahren bei BMW. Die Münchener sammeln dafür Abermillionen an anonymisierten Fahrdaten aus Versuchsfahrzeugen der Testflotte sowie seit Dezember 2019 zudem Informationen von tausenden Serienfahrzeugen – freilich mit dem Einverständnis der Kunden.
Das Zauberwort lautet hierbei: Reprocessing. „Die kontinuierlich steigende Datenmenge erhöht die Qualität der Fahrerassistenzfunktionen durch ein ständiges Verbessern der Funktionssoftware“, erklärt Martin. „Mithilfe der Daten aus der Entwicklungs- und Kundenflotte sind wir in der Lage, unsere Fahrerassistenzfunktionen ständig weiterzuentwickeln. Die aufgezeichneten Fahrten aus der Realität werden einmal gespeichert und können dann immer wieder mit neuen Softwareständen virtuell durchlaufen werden.“ Das Reprocessing erfordere Datenplattformen mit höchsten Anforderungen im Hinblick auf die performante Speicherung und Verarbeitung sehr großer Datenmengen sowie Rechenleistung, betont der BMW-Manager.
Eine davon hat der bayerische Autobauer in Unterschleißheim bei München in Betrieb genommen, eine andere steht in Schanghai. Hier fließen Test- und Kundenflottendaten zusammen, um in Kombination ausgewertet zu werden. Bis Mitte 2021 wolle man mehr als 500 Millionen Testkilometer absolviert haben, umreißt es BMW-Experte Nicolai Martin.
KIT-Projekt: KI hilft beim Selektieren
Nicht nur die Autohersteller selbst bemühen sich, anfallende Datenmengen intelligenter aufzubereiten. Anfang des Jahres hat das Karlsruher Institut für Technologie (KIT) mit „KIsSME“ ein Forschungsvorhaben mit dem Ziel auf den Weg gebracht, die bei der Erprobung sich auftürmenden Datenberge zu reduzieren, um Speicherplatz, Strom und Auswertungsaufwand zu sparen, zugleich jedoch die Informationen so zu verdichten, dass selbstfahrende Autos sicherer werden.
Das KIT setzt dafür auf die Schläue von KI-Algorithmen: Diese sollen schon während des Fahrbetriebs über die Sensorik im Fahrzeug anfallende Daten selektieren und eine Katalogisierung vorbereiten. „KIsSME zielt darauf, den Szenarienkatalog auszubauen und zugleich Datenmengen zu reduzieren“, erklärt Michael Frey, stellvertretender Institutsleiter am Institut für Fahrzeugsystemtechnik (FAST) des KIT. „Dies spart Speicherplatz und Strom und verringert den Aufwand für Auswertung und Datenschutz.“ In die Erforschung einfließen sollen Daten aus realen Messfahrten im öffentlichen Stadtverkehr und auf dem Testfeld Autonomes Fahren Baden-Württemberg (TAF BW) in Karlsruhe sowie aus Closed-Vehicle-in-the-Loop-Simulationen an einem Gesamtfahrzeugprüfstand des KIT. Die im Rahmen von KIsSME entwickelten KI-Modelle und -Selektoren dienen der Automatisierung auf Level vier bis fünf.
Bertrandt feilt an den eigenen Data-Analytics-Methoden
Datenmengen reduzieren und sinnvoll aufbereiten will auch der Entwicklungsdienstleister Bertrandt in Frankfurt am Main. Dort arbeitet Yusuf Erdogan, Leiter der Abteilung Data Science & Development, an der Verbesserung von Data-Analytics-Methoden fürs autonome Fahren, unter anderem mithilfe künstlicher Intelligenz.
„KI kann bereits bei der Datenaufnahme eingesetzt werden, um in Daten bestimmte interessante Fahrszenarien zu identifizieren“, erläutert Erdogan. In sogenannten Smart-Layer-Architekturen, also Datenmanagement-Gebilden, durch die Informationen geschickt werden, entscheiden intelligente Algorithmen, ob Daten durchgelassen oder herausgefiltert werden. „So wird aus Big Data Smart Data“, pointiert es der Bertrandt-Experte.
Einen solchen Data-Mining-Ansatz verfolgt der Ingenieursdienstleister bei einem Labeling-Tool, das auf dem Prinzip der Annotation von Kameradaten beruht. Für das Trainieren und Konditionieren der KI im autonomen Fahrzeug werden sogenannte Ground-Truth-Daten benötigt, auf denen zum Beispiel Objekte wie Fußgänger markiert sind.
„Wir benutzen beim Bertrandt Data Labeler dieselbe Vorgehensweise für die Generierung von Ground-Truth-Daten wie die KI im Fahrzeug bei der Objekterkennung. Wir nutzen speziell trainierte KI-Algorithmen, um Kamerabilder zu analysieren und verschiedene Objekte in diesen Bildern zu markieren“, erklärt Erdogan. So soll sich die Leistungsfähigkeit der Algorithmen nach und nach weiter verbessern.
Tesla nimmt Supercomputer in Betrieb
Der kalifornische Autobauer Tesla denkt auch beim Umgang mit Daten in Superlativen: Auf dem eigenen „AI Day“ Ende August stellte der Elektro-OEM das Projekt Dojo vor. Dojo ist ein KI-Supercomputer, der mit einer Gesamtleistung von etwa 1,1 Exaflops im kommenden Jahr eine Top-Platzierung im weltweiten Supercomputer-Ranking ergattern wird.
Den Hochleistungsrechner hat Tesla auch nötig, denn der OEM hat angekündigt, ab sofort auf Radarsensoren in seinen Fahrzeugen zu verzichten und das autonome Fahren ausschließlich auf Basis von Kameradaten zu ermöglichen. Für die Auswertung dieser Bildinformationen ist ein mächtiges neuronales Netz nötig, das im besagten Dojo trainiert werden soll.
Cariad setzt auf Machine Learning und Edge Computing
Auch Volkswagen-Tochter Cariad gibt seinen Entwicklern wenig überraschend Tools wie Machine Learning, neuronale Netze und KI an die Hand. Das Data Driven Development steht bereits im Mittelpunkt vieler Entwicklungsaktivitäten. Quantitativ habe man mit über zehn Millionen Neufahrzeugen pro Jahr im Volkswagen Konzern perspektivisch den Datenvorteil auf seiner Seite, heißt es bei Cariad auf Anfrage von automotiveIT.
Nun gehe es darum, entsprechende Fahrzeug- und Umfelddaten der Flotte nutzbar zu machen und sie intelligenter zu verarbeiten. „Mit der Übernahme der Kamerasoftware-Sparte von Hella Aglaia haben wir unsere Kompetenzen im maschinellen Sehen massiv ausgebaut, die Volkswagen Automotive Cloud dient dabei ebenso als technischer Backbone wie unsere Automated Driving Platform in Kooperation mit Microsoft, die das Lernen aus gefahrenen Kilometern systematisch unterstützt“, so ein Sprecher des Wolfsburger Autobauers.
Um die Datenmengen so gering wie möglich zu halten, rechnen auch autonome Volkswagenmodelle über Edge Computing künftig direkt im Fahrzeug. Das sei ohnehin notwendig, damit sämtliche Situationen auf Level 3 auch ohne Netzwerkverbindung beherrscht werden können, so Cariad. Bei Bedarf können Informationen bis hin zu Rohdaten allerdings auch ins Backend transferiert werden.
Mobileye: Millionen Kilometer, nur wenige Daten
Über eine Milliarde Testkilometer hat der ADAS-Spezialist Mobileye inzwischen für hochpräzises Kartenmaterial auf dem Konto, acht Millionen kommen pro Tag hinzu. Bis 2024 könnten es eine Milliarde Kilometer innerhalb von 24 Stunden sein. Dennoch bereitet Johann „JJ“ Jungwirth diese Sammelwut keine Bauchschmerzen.
„Wir versuchen bei Mobileye grundsätzlich, mit sehr geringen Datenmengen auszukommen. Wir sammeln etwa zehn Kilobyte pro Kilometer – das ist quasi nichts“, sagt der Vice President Mobility-as-a-Sevice des israelischen Tech-Unternehmens im Video-Interview mit automotiveIT. „Das sind pro Fahrzeug im Jahr wirklich geringe Datenmengen und geringe Kosten.“ Man übertrage weder Bild- noch Videomaterial – allein schon aus datenschutzrechtlichen Gründen, wie JJ beschreibt.
Forscher übersetzen Realstrecken in virtuelle Umgebung
Virtuelle Testkilometer sind längst der Standard beim Erproben autonomer Fahrzeuge, um Kosten und Aufwand auf ein Minimum zu reduzieren. Eine große Herausforderung ist es dabei, die realen Strecken in valide virtuelle Testumgebungen zu übersetzen, um die Fahrten im Simulator zu gleichwertigen Kilometern zu machen.
Forscher der TU Graz, von Joanneum Research, AVL und Fraunhofer Austria haben im Rahmen eines Projektes nun eine Methode entwickelt, reale in virtuelle Welten detailgetreu zu übersetzen. Konkret geht es im Projekt um das Erproben der Übergabe der Fahraufgabe in automatisierten Fahrsituationen. Gefragt waren Prozesse, die die Validität der Fahrsimulation mit dem Fahrversuch nachweisen. Als Grundlage dafür diente der direkte Vergleich – Fahrsimulation und Realfahrt. „Wenn das gleich ablaufen soll wie in der Realität, müssen die Umgebungen in der Simulation bis auf den Zentimeter genau mit der realen Umwelt übereinstimmen“, sagt Arno Eichberger, Leiter des Forschungsbereichs „Automated Driving & Driver Assistance Systems“ am Institut für Fahrzeugtechnik der TU Graz.
Die technische Grundlage für die Lösung der Wissenschaftler bilden die Ultra-HD-Karten des Digital-Twin-Spezialisten Joanneum Research. „Mithilfe eines Mobile Mapping Systems vermessen wir die Testumgebungen. Aus den Messdaten wird schlussendlich eine lückenlose 3D-Karte mit extrem hohen Detaillierungsgrad erstellt“, so Patrick Luley, Leiter des Forschungslabors für hoch automatisiertes Fahren des Instituts DIGITAL. Manuelle 3d-Modellierung liefere zwar eine ähnlich hohe Genauigkeit, sei aber wesentlich kostenintensiver und aufwendiger, so die Experten.