Ein Smart-Konzeptfahrzeug hält an einem Zebrastreifen.

Die Entscheidungsmöglichkeiten autonomer Fahrzeuge führen in eine juristische Zwickmühle. Bild: Daimler

Der Gesetzgeber hinkt dem technologischen Fortschritt hinterher: Diesen Vorwurf wollte die Bundesregierung hinsichtlich des autonomen Fahrens nicht grassieren lassen und verkündete im vergangenen Jahr nichts Geringeres, als den Anspruch einer weltweiten Vorreiterrolle. Bereits im Juni 2017 hatte sie ein Gesetz zum automatisierten Fahren erlassen, das Systeme auf SAE-Level 3 unter bestimmten Voraussetzungen erlaubt, nun erfolgte ein weiterer Schritt gen autonome Zukunft.

Im Juli 2021 trat ein neues Gesetz in Kraft, das Kraftfahrzeuge auf SAE-Level 4 ermöglicht. Darüber hinaus treibe Deutschland harmonisierte Vorschriften auf internationaler Ebene voran, so das Bundesverkehrsministerium (BMVI). „Die enormen Investitionen müssen über die Menge der verkauften Fahrzeuge wieder eingespielt werden – da reicht der deutsche Absatzmarkt isoliert nicht aus“, untermauert Lars Godzik, geschäftsführender Partner bei Ginkgo Management Consulting, die Dringlichkeit dieses Vorhabens im Interview mit automotiveIT.

Wo können autonome Fahrzeuge eingesetzt werden?

Das jüngst verabschiedete Gesetz sieht bei den Einsatzszenarien zwar keine Einschränkungen vor, fordert aber eine örtliche Begrenzung auf einen festgelegten Betriebsbereich. Es richtet sich folglich nicht an den Individualverkehr, sondern gilt in erster Linie für Personen- und Gütertransportanbieter.

Fahrerlose Fahrzeuge könnten im öffentlichen Straßenverkehr und Werksgeländen demnach etwa als Shuttle auf einer festgelegten Route, Hub2Hub zwischen zwei Verteilzentren, für Personen- und Gütertransport auf der ersten oder letzten Meile sowie als Dual-Mode-Fahrzeuge – wie beim Automated Valet Parking – eingesetzt werden. Damit ist Deutschland laut BMVI der erste Staat weltweit, der Fahrzeuge ohne Fahrer in den Alltag bringt.

Welche Regeln gelten beim autonomen Fahren?

Damit die Vision des autonomen Fahrens auf deutschen Straßen zur Realität werden kann, bedurfte es neuen Regelungen hinsichtlich technischer Anforderungen, Prüfverfahren, Datenverarbeitung sowie dem tatsächlichen Betrieb. So ist die Betriebserlaubnis durch das Kraftfahrt-Bundesamt (KBA) unter anderem an die technische Voraussetzung geknüpft, dass selbstständig oder durch eine „Technische Aufsicht“ ein „risikominimalen Zustand“ hergestellt wird, sobald eine sichere Weiterfahrt nicht mehr möglich ist.

Der Umstand, dass darunter auch der Abbruch der Funkverbindung zählt, wurde vom Digitalverband Bitkom stark kritisiert und die Gefahren durch anhaltende Fahrzeuge angemahnt. „Eine Funkverbindung ist keine technische Voraussetzung, damit Fahrzeuge in einem autonomen Fahrmodus fahren können und sollte somit auch keine gesetzliche Voraussetzung sein“, monierte Bitkom-Präsident Achim Berg.

Das Konzept der Technischen Aufsicht beschreibt dabei eine natürliche Person – also einen Menschen – der die autonomen Fahrfunktionen jederzeit deaktivieren sowie dem Fahrzeug Manöver vorschlagen kann, wenn es selbst nicht mehr weiterweiß. Dazu könnten etwa zwingende Überholvorgänge bei durchgezogenem Mittelstreifen oder etwaige Situationen zählen, die grundsätzlich gegen die Straßenverkehrsordnung verstoßen, im Einzelfall aber geboten sind. Die Aufsicht hat dabei jedoch keinen Zugriff auf die Fahrzeugsteuerung selbst, sondern wacht lediglich über das System.

Wer haftet für autonome Fahrzeuge?

Einer der größten Kritikpunkte bei der gesetzlichen Regelung ist sicherlich die Haftungsfrage. Während der ehemalige Verkehrsminister Alexander Dobrindt im Zuge der Verabschiedung des Gesetzes im Jahre 2017 betonte, dass die Haftung im automatisierten Modus selbstverständlich beim Hersteller liegen müsse, hat sich im Jahre 2021 die gewohnte Halterhaftung durchgesetzt. Die Gesetzesnovelle sieht demnach eine verpflichtende Haftpflichtversicherung vor und nimmt die Technische Aufsicht sowie die Hersteller lediglich bei (technischen) Fehlern in die Verantwortung. Anstatt die Haftung entsprechend dem Grad der Automatisierung auf den Hersteller auszudehnen, obliegt es in diesem Sinne einer tiefergehenden Fehleranalyse im Schadensfall.

Während der Fahrzeughalter sich im Regelfall somit seiner Haftung gewiss sein kann, zeigt sich im Falle eines Fehlers die volle Komplexität der Rechtslage. Fehler der Technischen Aufsicht mögen mit Hilfe der Blackbox leichter zu identifizieren sein, beim Zusammenspiel unterschiedlichster Komponenten fällt eine Zuordnung womöglich schwerer. Das Chassis eines Automobilherstellers, Sensoren verschiedenster Zulieferer, eine womöglich zugekaufte Software sowie künstliche neuronale Netzwerke, deren Entscheidungen oder Artefaktbildungen nicht nachvollzogen werden können, verkomplizieren die Haftungsfrage. „Sicherlich steht der Automobilhersteller als Endproduktverkäufer zunächst in der Verantwortung – aber er wird sich im Haftungsfall über seine Vereinbarungen mit den Lieferanten schadlos halten wollen“, merkt Ginkgo-Experte Lars Godzik an.

Welche Entscheidungen dürfen Algorithmen treffen?

Eine weitaus größere Problematik ergibt sich hinsichtlich der ethischen und verfassungsrechtlichen Betrachtung. Immerhin könnten Algorithmen künftig über Leben und Tod entscheiden. Aus diesem Grund hat die von der Bundesregierung eingesetzte Ethik-Kommission in ihrem Bericht bereits im Juni 2017 dargelegt, wo beim automatisierten Fahren die rote Linie zu ziehen ist, ohne alle Fragen abschließend zu beantworten. Wenngleich etwa deren Forderung nach einer Verschiebung der Haftung nicht hinreichend umgesetzt wurde, resultierte aus dem Bericht beispielsweise die Definition des „risikominimalen Zustands“ sowie folgende fundamentale Bestimmungen.

Unter der Prämisse, das Unfälle technisch nahezu unmöglich sind und kritische Situationen gar nicht erst entstehen sollten, ist das Restrisiko im Sinne der verfassungswidrigen Rechtsgüterabwägung „Leben gegen Leben“ nicht normierbar und ethisch nicht zweifelsfrei programmierbar. Der Schutz menschlichen Lebens wird bei der Programmierung zwar über Tier- oder Sachschäden gestellt, eine Qualifizierung nach persönlichen Merkmalen wie Alter, Geschlecht sowie körperlicher oder geistiger Konstitution ist bei unausweichlichen Unfallsituation jedoch strikt untersagt.

Zudem dürfen Unbeteiligte nicht „geopfert“ werden, wenngleich eine Minderung der Zahl von Personenschäden vertretbar sein kann. Letzteres stellt ein beachtliches verfassungsrechtliches Novum dar, auch wenn sich die Kommission gegen das „Aufrechnen“ von Menschenleben verwehrt. Eine „befriedigende“ und „konsensuale“ Lösung hat sie nach eigenen Angaben jedoch nicht gefunden. Sollte ein autonomes Auto also entgegen aller Erwartungen einen Unfall haben, dürfte das Leben eines Kleinkinds nicht über das einer Seniorin gestellt oder unbeteiligte Passanten geopfert werden, um Verkehrsteilnehmer zu schützen. Steht die Abwägung zwischen einer Menschengruppe und einer Einzelperson an, dürfte der Schaden minimiert, aber nicht das „sakrosankte“ Individuum absichtlich getötet werden. Eine Erkenntnis, die in der Theorie ansatzweise umsetzbar erscheint, Programmierer jedoch mit einem Ding der Unmöglichkeit konfrontiert. Ein Gesetz ist geschaffen, der Konsens nicht.

Autonomes Fahren benötigt gesellschaftliches Vertrauen

Angesichts der ungeklärten rechtlichen und ethischen Aspekte liegt es nicht fern, dass auch die gesellschaftliche Akzeptanz für das autonome Fahren noch zu wünschen übriglässt. Laut einer Studie des Marktforschungsunternehmens YouGov sind 42 Prozent der Deutschen nicht davon überzeugt, dass autonome Autos den Verkehr sicherer machen und sprechen ihnen damit einen der grundlegendsten Vorteile ab. Knapp die Hälfte (48 Prozent) der Befragten gibt sogar an, dass autonome Fahrzeuge ihnen Angst machen. „Jede technologische Innovation kann nur so erfolgreich sein, wie die gesellschaftliche Akzeptanz dahinter“, betont Nari Kahle, Young Global Leader und Head of Strategic Programs bei Volkswagens Software-Tochter Cariad, auf dem diesjährigen CCI Summit.

Das mantraartige Aufzählen der Vorteile oder das Vorweisen weiterer Testkilometer dürfte den Skeptikern die Angst allerdings nicht nehmen – insbesondere, wenn künstliche Intelligenz ins Spiel kommt. Ohne sie ist autonomes Fahren kaum denkbar. Doch der gesellschaftliche Diskurs über Sinn und Zweck von KI-Systemen findet nicht in ausreichendem Maße statt, moniert Thomas Klindt, Rechtsanwalt und Partner bei der internationalen Wirtschaftskanzlei Noerr, gegenüber automotiveIT. Politik und Recht sollten seines Erachtens einen Schritt nach dem anderen gehen. Denn erst mit dem breiten gesellschaftlichen Wunsch nach Veränderung könne der Rückstand hinsichtlich digitalisierter Entscheidungen aufgeholt werden.

Weitere Hintergründe, Analysen und Wissenswertes zum Thema autonomes Fahren lesen Sie diese Woche auch bei all-electronics.de. Die Redaktion der Automobil Elektronik fokussiert sich in ihren Beiträgen unter anderem auf Technologie-Trends und Tools in Themengebieten wie Sensorik, Cybersicherheit oder Car-to-X-Vernetzung.

Kostenlose Registrierung

Newsletter
Bleiben Sie stets zu allen wichtigen Themen und Trends informiert.
Das Passwort muss mindestens acht Zeichen lang sein.

Ich habe die AGB, die Hinweise zum Widerrufsrecht und zum Datenschutz gelesen und akzeptiere diese.

*) Pflichtfeld

Sie sind bereits registriert?