Das Problem treibt die KI-Community seit Jahren um: Wenn ein Fahrer in einem autonomen Auto überflüssig wird, liegt die Haftung für auftretende Schäden beim OEM. Es ist aber vorab kaum möglich, die Algorithmen auf sämtliche Verkehrssituationen zu trainieren, die zu Unfällen führen könnten. Zumal im realen Verkehrsgeschehen ständig gegen Vorschriften verstoßen wird, ohne dass es negative Konsequenzen hat.
Eine Arbeitsgruppe unter der Leitung von Matthias Althoff an der TU München (TUM) hat nun ein formales Verfahren vorgestellt, mit dem ein autonomes Auto erst während der Fahrt die erforderlichen Tests durchführt, also mit Echtzeitdaten arbeitet. Laut der Forschungsgruppe ließen sich so auch Situationen bewältigen, die während der Entwicklung nicht bedacht wurden und daher in Vorabtests nicht vorkamen.
Wichtiger Beitrag zur Forschung
Konkret stellt das Münchner Verfahren sicher, dass jede gewählte Trajektorie des Fahrzeugs auch in sicherheitskritischen Situationen den rechtlichen Vorgaben genügt. „Den Titel und auch das Abstract der Studie kann man, gerade wenn man nicht vom Fach ist, so lesen, dass das Framework dafür sorgt, dass ein automatisiertes Fahrzeug keine Unfälle mehr verursachen kann“, kommentiert Marcus Nolte, wissenschaftlicher Mitarbeiter in der Arbeitsgruppe Elektronische Fahrzeugsysteme an der TU Braunschweig, die Veröffentlichung.
Er halte das vorgestellte Framework, zwar „technisch gesehen, für einen wichtigen Beitrag zum Stand der Forschung“, wäre mit den Schlussfolgerungen aber „deutlich vorsichtiger“ gewesen. Zumal der Nutzen der Verifikation entscheidend von den Modellannahmen abhänge. Das schreibt im Übrigen auch die TUM-Gruppe.
Erkennen von Hindernissen
Philipp Slusallek, wissenschaftlicher Direktor Agenten und Simulierte Realität am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Saarbrücken, weist darauf hin, dass der TUM-Ansatz nicht grundsätzlich neu ist. Neu sei vor allem die konkrete Umsetzung.
Das maßgebliche Problem in Slusalleks Augen ist jedoch, dass der Ansatz davon ausgeht, dass das Fahrzeug ein akkurates Bild der Umgebung hat: „Wenn ein Hindernis nicht als solches erkannt wird – wie beim bekannten Uber-Unfall oder immer wieder bei Teslas mit statischen Hindernissen – oder bei einer Fehlinterpretation an komplexen Kreuzungen oder Baustellen, dann bekommt das Verfahren falschen Input und geht von falschen Voraussetzungen aus. Dann kann es nur fragwürdige Ergebnisse liefern.“
Die Krux der Beinahe-Unfälle
Doch wie häufig treten überhaupt Beinahe-Unfälle auf, bei denen sich die anderen Verkehrsteilnehmer regelkonform verhalten? Und wie lassen sich Unfälle verhindern, wenn die anderen Verkehrsteilnehmer sich nicht regelkonform verhalten? „Dazu lässt sich keine Aussage treffen, weil die Grundlage für eine Abschätzung fehlt“, betont Hermann Winner, Leiter des Fachgebiets Fahrzeugtechnik an der TU Darmstadt.
Denn: Beinahe-Unfälle im Straßenverkehr werden – anders als in der Luftfahrt – nicht aufgezeichnet. „Deshalb könnte durchaus folgendes Szenario entstehen“, verdeutlicht Winner das grundlegende Problem: „Die Zahl der von autonomen Fahrzeugen verursachten Unfälle liegt deutlich unter der Zahl der von Menschen verursachten Unfälle, beispielsweise im Streckenvergleich; aber die Zahl der Unfälle, bei denen autonome Fahrzeuge involviert sind, liegt weit höher als bei von Menschen geführten Fahrzeugen. Denn Menschen können möglicherweise die Verhaltensfehler anderer Menschen besser antizipieren und damit ausbügeln.“ Ohne umfangreiche Praxistests lasse sich dazu prinzipiell keine Aussage treffen.