Forschungsfahrzeug der TU München

Ein neuer Algorithmus der TU München soll Ethik-Fragen beim autonomen Fahren adressieren. (Bild: TU München)

Bevor autonom fahrende Fahrzeuge flächendeckend auf den Straßen unterwegs sein können, muss nicht nur die technische Umsetzung bewerkstelligt werden. Auch ethische Fragen spielen bei der Entwicklung von Algorithmen eine wichtige Rolle. So muss die Software mit unvorhersehbaren Situationen umgehen können und im Falle eines drohenden Unfalls die notwendigen Entscheidungen treffen. Wissenschaftlerinnen und Wissenschaftler der TU München haben nun erstmals einen ethischen Algorithmus entwickelt, der Risiko fair aufteilt. Rund 2.000 Szenarien mit kritischen Situationen wurden dabei getestet, verteilt auf unterschiedliche Straßentypen und Regionen wie Europa, die USA oder China.  

Maximilian Geißlinger, Wissenschaftler am Lehrstuhl für Fahrzeugtechnik, erklärt den Ansatz: „Bislang wurden autonome Fahrzeuge im Falle einer ethischen Fragestellung immer vor die Entscheidung entweder/oder gestellt. Allerdings lässt sich der Straßenverkehr nicht in schwarz und weiß einteilen, sondern bedarf auch der Betrachtung der unzähligen Graustufen. Unser Algorithmus wägt verschiedene Risiken ab und trifft aus tausenden möglichen Verhaltensweisen eine ethische Entscheidung – und das in Sekundenbruchteilen.“

Autonome Fahrzeuge sollen schwache Verkehrsteilnehmer schützen

Die ethischen Rahmenbedingungen, an denen sich die Risikobewertung der Software orientiert, hat eine Expertenrunde im Auftrag der EU-Kommission 2020 in einem Empfehlungsschreiben definiert. Es beinhaltet Grundsätze wie den Schutz schwächerer Verkehrsteilnehmer und die Aufteilung von Risiko im gesamten Straßenverkehr. Damit diese Regeln in mathematische Berechnungen übertragen werden konnten, teilte das Forschungsteam Fahrzeuge und Personen, die sich im Verkehr bewegen, anhand des von ihnen ausgehenden Risikos für andere und anhand ihrer unterschiedlichen Risikobereitschaft ein. Ein Lastwagen beispielsweise kann anderen Verkehrsteilnehmern großen Schaden zuführen, während er selbst in vielen Szenarien nur in kleinerem Maße beschädigt wird. Bei einem Fahrrad ist es umgekehrt. Im nächsten Schritt wurde dem Algorithmus vorgegeben, in den verschiedenen Verkehrssituationen ein maximal akzeptables Risiko nicht zu überschreiten. Außerdem kalkulierte das Forschungsteam Variablen ein, die aus der Verantwortung der Verkehrsteilnehmer resultieren, beispielsweise sich an Verkehrsregeln zu halten.

Bisherige Ansätze behandelten kritische Situationen auf der Straße nur mit einer geringen Anzahl möglicher Manöver – im Zweifel blieb das Fahrzeug einfach stehen. Durch die nun in den Code eingebrachte Risikobewertung entstünden mehr Freiheitsgrade bei weniger Risiko für alle, so die TUM-Forscher.

Anhand eines Beispiels wird der Ansatz deutlich: Ein autonomes Fahrzeug möchte ein Fahrrad überholen, auf der Gegenfahrspur kommt ihm ein Lkw entgegen. Alle vorhandenen Daten über die Umgebung und die einzelnen Teilnehmer werden nun zu Rate gezogen. Lässt sich das Rad überholen, ohne in die Gegenfahrspur zu fahren und gleichzeitig genug Abstand zum Fahrrad zu halten? Welches Risiko besteht für welches Fahrzeug und welches Risiko bedeuten diese Fahrzeuge für einen selbst? Im Zweifel wird das autonome Gefährt mit der neuen Software immer warten, bis das Risiko für alle akzeptabel ist. Aggressive Manöver werden vermieden, gleichzeitig fällt das selbstständig fahrende Fahrzeug nicht eine Schockstarre und bremst abrupt ab. Ja und Nein spielen keine Rolle, es findet eine Abwägung statt, die viele Optionen beinhaltet.

Autonomes Fahrzeug soll Risiken abwägen

„Bislang wurden häufig traditionelle ethische Denkmuster gewählt, um Entscheidungen autonomer Fahrzeuge zu begründen. Das führte letztlich in eine Sackgasse, weil in vielen Verkehrssituationen nichts anderes übrig blieb, als ein ethisches Prinzip zu verletzen“, sagt Franziska Poszler, Wissenschaftlerin am Lehrstuhl für Wirtschaftsethik der TUM. „Wir dagegen betrachten den Verkehr mit der Risikoethik als zentralem Ausgangspunkt. Das ermöglicht uns, mit Wahrscheinlichkeiten zu arbeiten und differenzierter abzuwägen.“

Die Wissenschaftler betonen, dass auch Algorithmen, die nach der Risikoethik handeln, zwar jegliche mögliche Situation abdecken und eine Entscheidung auf Basis von ethischen Prinzipien treffen, aber dennoch keinen unfallfreien Straßenverkehr garantieren können. Künftig müssten zudem weitere Differenzierungen wie etwa kulturelle Unterschiede in ethischen Entscheidungen berücksichtigt werden.

Der an der TUM entwickelte Algorithmus wurde bislang in Simulationen validiert. Mit dem Forschungsfahrzeug EDGAR wird die Software künftig auch auf der Straße getestet. Der Code, in den die Erkenntnisse der Forschungsarbeit fließen, steht Open Source zur Verfügung.

Sie möchten gerne weiterlesen?