Trotz der großen Erfolge, die aktuelle Deep-Learning-Modelle wie ChatGPT & Co. in vielen Anwendungsfeldern bringen, sind sie womöglich nicht ideal für das autonome Fahren. So lautet die These eines gemeinsamen Whitepapers des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) und Accenture.
Die Begründung: Beim autonomen Fahren spiele die Physik eine wesentliche Rolle, weshalb neuroexplizite KI ein vielversprechender Ansatz sei: „So lässt sich die zugrundeliegende Physik des Systems explizit modellieren, was das Modell präziser, besser verallgemeinerbar und besser interpretierbar macht als traditionelle Deep-Learning-Ansätze – womöglich sogar mit weniger Daten“, sagt der Hauptautor Christian Müller, Leiter des Kompetenzzentrums Autonomes Fahren am DFKI.
Das Whitepaper schildert sieben Use Cases, wie eine solche Arbeitsteilung einer Hybrid-KI aussehen könnte, an Beispielen wie der Trajektorienplanung oder der Erkennung von Objekten auf der Straße anhand deren optischem Erscheinungsbild. Um nicht missverstanden zu werden, beugt Müller gleich vor: „Unser Vorschlag ist keine Wunderwaffe!“
Was ist neuroexplizite KI?
Man muss wissen, dass der Begriff neuroexplizite KI in der Community keineswegs etabliert ist, sondern am Saarland Informatics Campus, zu dem auch das DFKI gehört, geprägt worden ist. „Ansätze wie die neurosymbolische KI, ein etablierter Begriff, bei der die neuronalen Modelle durch Wissen lernen, sind seit 2000 immer wieder in Wellen en vogue gewesen“, erklärt Müller. „Aber physikalische Gleichungen sind eben keine Symbole, weshalb wir für unseren erweiterten Hybrid-Ansatz den Begriff neuroexplizite KI verwenden.“ Bei Ende-zu-Ende-Deep-Learning-Modellen bleibe das Problem bestehen, dass man nur in Teilbereiche der neuronalen Netze hineinschauen könne. „Fälle des Versagens beziehungsweise des Vergessens durch neu Gelerntes bleiben unerklärbar.“ Neuroexplizite KI helfe, gerade wenn komplexe Systeme unübersichtlich würden.
Zudem bietet der Hybrid-Ansatz in Müllers Augen die Chance zur Modularisierung: „Modularisierung hat eine lange Tradition in der Automobilindustrie, auch weil sich dadurch funktionale Sicherheit erreichen lässt“, sagt der Wissenschaftler. „Gerade für Traditionalisten der Functional Safety sind Ende-zu-Ende-Deep-Learning-Modelle ein Albtraum, weil nach wie vor offen ist, wie sich solche Modelle absichern lassen.“ Hybride Ansätze böten da eine Chance Data Science und traditionelle Ingenieurskunst wieder zusammenzubringen.
Der Ansatz ruft Skeptiker auf den Plan
In der Branche wird das Plädoyer für einen Hybrid-Ansatz mit neuroexpliziter KI teils recht skeptisch aufgenommen. „Wir haben schon vor langer Zeit versucht, die zugrundeliegende Physik zu modellieren, die die Interaktion der elektromagnetischen Wellen von Radarsensoren mit der komplexen Umgebung beschreibt. Wir kamen zu dem Schluss, dass sich aufgrund der Komplexität der Umgebung gar nicht alles modellieren lässt, was da außerhalb des Fahrzeugs mit den Radarwellen passiert“, sagt Jan Becker, Gründer und CEO von Apex.AI. „Wenn die Vorgänge im Umfeld unverstanden sind, kann ich sie nicht gut explizit modellieren – und daher auch nicht berechnen, aber dagegen gut implizit per KI lernen."
Bei Radar oder Lidar habe man es wenigstens mit einer kontrollierten Strahlungsquelle zu tun, also das, was den Sensor verlässt. Dagegen sei das bei der Kamerasensorik, die hohe Auflösung und gutes Preis-Leistungs-Verhältnis bietet, ja nicht gegeben: Die Lichtquelle kann die Sonne sein, Straßenlampen, andere Autoscheinwerfer und vieles mehr.
Auch Igal Raichelgauz, Gründer und CEO von Autobrains, ist skeptisch: „Wissen durch Symbolik oder die Einbettung physikalischer Gesetze, anstatt die KI lernen zu lassen, wie man in der physischen Welt interagiert, fühlt sich wie ein Rückschritt an. Menschen sind großartige Fahrer, auch diejenigen, die von Physik nichts verstehen.“ Die Dinge seien zu komplex, um sie auf Physik und Symbolik zurückzuführen.
Natürlich, so Becker, müsse ein System fürs autonome Fahren erklärbar sein – „das wollen die Entwickler und das will die Rechtsprechung“. Der häufigste Ansatz sei derzeit, das KI-Modell deshalb „in Blöcke zu unterteilen, kombiniert mit einem System, das diese KI überwacht“. Raichelgauz erläutert den Ansatz anhand der Entwicklung bei Autobrains: „Wir modularisieren und unterteilen das Problem des autonomen Fahrens in eine große Gruppe von simpleren Problemen, die jeweils durch ein spezialisiertes neuronales End-to-End-Netz gelöst werden. Dies reduziert die Komplexität drastisch und ermöglicht eine bessere Erklärbarkeit“, so der CEO.
Weg zum vollautomatisierten Fahren bleibt weit
Bislang verfolgt das Unternehmen diesen Ansatz in Simulationen: „Sie konvergieren zu etwa 400.000 Fertigkeiten, um einen sicheren und vollständig unüberwachten Modus von Level 4 oder 5 zu ermöglichen. 10.000 Fähigkeiten reichen für ein L2++-System aus, das schrittweise in Richtung L4 skaliert werden kann.“ Es bleibt also noch einiges zu tun, das weiß auch Raichelgauz: „Wir sind noch weit von vollständiger Autonomie entfernt, aber die modulare End-to-End-Technologie bietet einen klaren Weg dorthin.“
Apex.AI-Chef Becker drückt sich etwas vorsichtiger aus: „Die Fortschritte von End-to-end-Deep-Learning-Modellen sind gigantisch, weil sowohl die Größe der Modelle als auch die Menge an gesammelten Daten zum Trainieren diese Modelle ständig wächst. Derzeit sind sie für nicht überwachtes autonomes Fahren aber nicht zuverlässig genug – und wann sich das ändert, ist nicht vorhersehbar.“ Das habe ja zuletzt auch Waymo bestätigt, die beim autonomen Fahren zweifellos am weitesten seien.
Waymo: Deep Learning reicht (noch) nicht
Anfang November veröffentlichte Waymo ein wissenschaftliches Paper, das die Forschungsergebnisse an einem End-to-end-Deep-Learning-Modell beschreibt, das auf Kamerasensordaten beruht. Tenor: Das Modell weise ein sehr vielversprechendes Leistungsvermögen auf, sei aber noch nicht für den Verkehr geeignet. „Es gibt vor allem zwei ungeklärte grundlegende Fragen“, erläutert Becker: Wie lassen sich Sensormodalitäten wie Lidar und Radar integrieren? Und wie lässt sich ein permanentes Lernen in das Modell integrieren?“
Die Entscheidung, ob ein reines Deep Learning das richtige Pferd ist, auf das die Branche setzt, ist also letztlich noch nicht gefallen – auch wenn es bei diesem Ansatz aktuell die größten Entwicklungssprünge gibt. „Ich würde es begrüßen, wenn die Unternehmen wieder davon abkommen, in neuen Ansätzen immer das neue Allheilmittel zu sehen“, sagt DFKI-Wissenschaftler Müller. „Zumal neuroexplizite KI eine Chance auf ein Alleinstellungsmerkmal für Unternehmen bietet. Sie können sich durch diesen Akt der Ingenieurskunst auch unabhängiger von manchen Anbietern machen, die nur Deep Learning verfolgen.“