Ein Smart-Konzeptfahrzeug hält an einem Zebrastreifen.

Die Entscheidungsmöglichkeiten autonomer Fahrzeuge führen in eine juristische Zwickmühle. (Bild: Daimler)

Der Gesetzgeber hinkt dem technologischen Fortschritt hinterher: Diesen Vorwurf wollte die Bundesregierung hinsichtlich des autonomen Fahrens nicht grassieren lassen. Nachdem sie bereits im Jahr 2017 ein Gesetz für Systeme auf SAE-Level 3 erlassen hatte, wurde im Juli 2021 der Anspruch einer weltweiten Vorreiterrolle untermauert. Autonome Kraftfahrzeuge auf SAE-Level 4 hatten mit der Änderung des Straßenverkehrsgesetzes (StVG) endlich eine gesetzliche Grundlage.

Wo können autonome Fahrzeuge eingesetzt werden?

Bei den Einsatzszenarien sieht das deutsche Recht seither keine Einschränkungen für die Selbstfahrtechnologie vor, fordert aber eine örtliche Begrenzung auf einen festgelegten Betriebsbereich. Das Gesetz richtet sich folglich nicht an den Individualverkehr, sondern gilt in erster Linie für Personen- und Gütertransportanbieter.

Fahrerlose Fahrzeuge könnten im öffentlichen Straßenverkehr und Werksgeländen demnach etwa als Shuttle auf einer festgelegten Route, Hub2Hub zwischen zwei Verteilzentren, für Personen- und Gütertransport auf der ersten oder letzten Meile sowie als Dual-Mode-Fahrzeuge – wie beim Automated Valet Parking – eingesetzt werden. Damit sei Deutschland laut dem Bundesverkehrsministerium (BMVI) der erste Staat weltweit, der Fahrzeuge ohne Fahrer in den Alltag bringt.

Welche Regeln gelten beim autonomen Fahren?

Abschließend geregelt war das autonome Fahren hinsichtlich technischer Anforderungen, Prüfverfahren oder Regelungen zur Datenverarbeitung jedoch nicht. Es fehlte das letzte Puzzlestück des nationalen Rechtsrahmens – die im Mai 2022 vom Bundesrat beschlossene Autonome-Fahrzeuge-Genehmigungs-und-Betriebs-Verordnung (AFGBV). In Verbund mit dem StVG soll sie gewährleisten, dass die Technologie wirklich auf die Straße kommt: vom Antrag des Herstellers, über die Genehmigung des Halters, bis hin zu den Betriebsanforderungen.

Demnach ist die Betriebserlaubnis durch das Kraftfahrt-Bundesamt (KBA) unter anderem an die technische Voraussetzung geknüpft, dass selbstständig oder durch eine „Technische Aufsicht“ ein „risikominimalen Zustand“ hergestellt wird, sobald eine sichere Weiterfahrt nicht mehr möglich ist. Der Umstand, dass darunter auch der Abbruch der Funkverbindung zählt, wurde vom Digitalverband Bitkom stark kritisiert und die Gefahren durch anhaltende Fahrzeuge angemahnt. „Eine Funkverbindung ist keine technische Voraussetzung, damit Fahrzeuge in einem autonomen Fahrmodus fahren können und sollte somit auch keine gesetzliche Voraussetzung sein“, monierte Bitkom-Präsident Achim Berg.

Das Konzept der Technischen Aufsicht beschreibt dabei eine natürliche Person – also einen Menschen – der die autonomen Fahrfunktionen jederzeit deaktivieren sowie dem Fahrzeug Manöver vorschlagen kann, wenn es selbst nicht mehr weiterweiß. Dazu könnten etwa zwingende Überholvorgänge bei durchgezogenem Mittelstreifen oder etwaige Situationen zählen, die grundsätzlich gegen die Straßenverkehrsordnung verstoßen, im Einzelfall aber geboten sind. Die Aufsicht hat jedoch keinen Zugriff auf die Fahrzeugsteuerung selbst, sondern wacht lediglich über das System.

Wer haftet für autonome Fahrzeuge?

Einer der größten Kritikpunkte des neuen Rechtsrahmens bleibt jedoch die Haftungsfrage. Obwohl der ehemalige Verkehrsminister Alexander Dobrindt im Jahr 2017 betonte, dass diese im automatisierten Modus selbstverständlich den Hersteller treffen müsse, blieb die verschuldensunabhängige Halterhaftung bestehen. Selbst vollautonome Fahrten begründen nach StVG keine Ausnahme. Darüber hinaus ist die Existenz eines menschlichen Fahrzeugführers je nach SAE-Level ohnehin fraglich. Der Halter verantwortet somit weiterhin die Betriebsgefahr seines Fahrzeugs, sein Versicherer bleibt die erste Anlaufstelle im Schadensfall.

Dass in Bezug auf den Drive Pilot von Mercedes-Benz mitunter eine gesetzliche Herstellerhaftung seitens der Medien suggeriert wurde und BMW-Chef Oliver Zipse auf der CES jüngst in die gleiche Kerbe schlug, verstärkt lediglich die kursierenden Unsicherheiten. Die Gesetzesnovelle gibt eine verpflichtende Haftpflichtversicherung vor und nimmt die Technische Aufsicht sowie die Hersteller lediglich bei (technischen) Fehlern in Regress. Einerseits kann so der Status Quo einer praktikablen Schadensabwicklung weiter angewandt werden. Andererseits geht mit dem Verzicht auf eine generelle Herstellerhaftung nach SAE-Level auch eine tiefergehende Fehleranalyse einher, welche die volle Komplexität der Rechtslage aufzeigt.

Im Einzelfall mögen Fehler der Technischen Aufsicht mit Hilfe der Blackbox leichter identifizierbar sein, beim Zusammenspiel unterschiedlichster Komponenten fällt eine Zuordnung trotz Datenspeicher womöglich schwerer. Das Chassis eines Automobilherstellers, Sensoren verschiedenster Zulieferer, eine zugekaufte Software sowie künstliche neuronale Netzwerke, deren Entscheidungen oder Artefaktbildungen mitunter undurchsichtig sind, verkomplizieren die Produkt- und Produzentenhaftung. „Sicherlich steht der Automobilhersteller als Endproduktverkäufer zunächst in der Verantwortung – aber er wird sich im Haftungsfall über seine Vereinbarungen mit den Lieferanten schadlos halten wollen“, so Lars Godzik, geschäftsführender Partner bei Ginkgo Management Consulting, im Interview mit automotiveIT.

Welche Entscheidungen dürfen Algorithmen treffen?

Eine weitaus größere Problematik ergibt sich hinsichtlich der ethischen und verfassungsrechtlichen Betrachtung. Immerhin könnten Algorithmen künftig über Leben und Tod entscheiden. Aus diesem Grund hat die von der Bundesregierung eingesetzte Ethik-Kommission bereits im Juni 2017 dargelegt, wo beim automatisierten Fahren die rote Linie zu ziehen ist – ohne alle Fragen abschließend zu beantworten. Wenngleich deren Forderung nach einer Verschiebung der Haftung nicht hinreichend umgesetzt wurde, resultierte aus dem Bericht beispielsweise die Definition des „risikominimalen Zustands“ sowie folgende fundamentale Bestimmungen.

Unter der Prämisse, dass Unfälle technisch nahezu unmöglich sind und kritische Situationen gar nicht erst entstehen sollten, sei das Restrisiko im Sinne der verfassungswidrigen Rechtsgüterabwägung „Leben gegen Leben“ nicht normierbar und ethisch nicht zweifelsfrei programmierbar. Der Schutz menschlichen Lebens könne bei der Programmierung zwar über Tier- oder Sachschäden gestellt werden, eine Qualifizierung nach persönlichen Merkmalen wie Alter, Geschlecht sowie körperlicher oder geistiger Konstitution sei bei unausweichlichen Unfallsituationen jedoch strikt untersagt. Zudem dürfen Unbeteiligte laut den Experten nicht „geopfert“ werden, wenngleich eine Minderung der Zahl von Personenschäden vertretbar sein könne. Letzteres stellt ein beachtliches verfassungsrechtliches Novum dar, auch wenn sich die Kommission gegen das „Aufrechnen“ von Menschenleben verwehrt. Eine „befriedigende“ und „konsensuale“ Lösung hat sie nach eigenen Angaben jedoch nicht gefunden.

Sollte ein autonomes Auto entgegen aller Erwartungen einen Unfall haben, dürfte das Leben eines Kleinkinds also nicht über das einer Seniorin gestellt oder unbeteiligte Passanten geopfert werden. Steht die Abwägung zwischen einer Menschengruppe und einer Einzelperson an, dürfte der Schaden minimiert, aber nicht das „sakrosankte“ Individuum absichtlich getötet werden. Eine Erkenntnis, die in der Theorie ansatzweise umsetzbar erscheint, Programmierer jedoch mit einem Ding der Unmöglichkeit konfrontiert. „Wen sollen wir zuerst umfahren? Wenn wir weiterhin so die Agenda setzen, dann kommen wir nicht voran“, gibt Christoph Lütge, Direktor des Instituts für Ethik in der KI der TU München, in einer Studie der &Audi Initiative zu bedenken. Er fordert eine Konkretisierung ethischer Grundsätze anhand praxisnaher Situationen anstatt emotionaler und ideologisch geführter Debatten. Die verfassungskonforme Auflösung der Dilemmata bleibt jedoch auch von seiner Seite aus. Dabei nimmt deren Dringlichkeit stetig zu. Immerhin ermöglicht die jüngste UN-Harmonisierung der Fahrzeugvorschriften seit Beginn dieses Jahres sogar Level 3-Fahrten bis 130 km/h. Ein Gesetz ist in Deutschland geschaffen, der Konsens nicht.

Sie möchten gerne weiterlesen?