Wie ist die Rechtslage beim autonomen Fahren?
Die Entscheidungsmöglichkeiten autonomer Fahrzeuge führen in eine juristische Zwickmühle.
(Bild: Daimler)
Autonomes Fahren rückt näher: Neue Gesetze, Pilotprojekte und technische Fortschritte verändern die Rahmenbedingungen. Erfahren Sie, welche Regelungen in Deutschland gelten, wie EU-Vorgaben greifen und wer im Ernstfall bei einem Unfall haftet.
Autonomes Fahren gilt seit Jahren als einer der größten Treiber für die Mobilität der Zukunft. Die Versprechen reichen von mehr Sicherheit im Straßenverkehr über geringere Emissionen bis hin zu einer effizienteren Auslastung bestehender Infrastrukturen. Für den Personenverkehr bedeutet die Technologie nicht weniger als eine grundlegende Veränderung der Art, wie wir Mobilität erleben – hin zu einem vernetzten, multimodalen System, in dem das Auto zum digitalen Service wird. Auch im Güterverkehr sind die Hoffnungen groß: autonome Trucks könnten Transporte effizienter gestalten und den Fahrermangel abfedern.
Kein Wunder also, dass die Bundesregierung dem Thema eine hohe Priorität einräumt und im Dezember 2024 eine nationale Strategie für autonomes Fahren beschlossen hat. Ziel ist es, ab 2026 den Regelbetrieb im öffentlichen Raum einzuleiten, bis 2028 den größten zusammenhängenden Betriebsbereich weltweit zu schaffen und spätestens 2030 die vollständige Integration in ein vernetztes Mobilitätssystem zu erreichen.
Welche Gesetze gelten für autonomes Fahren in Deutschland?
Bereits 2017 passte der Gesetzgeber das Straßenverkehrsgesetz (StVG) an und schuf erstmals einen rechtlichen Rahmen für hochautomatisierte Systeme auf SAE-Level 3. Unter klar definierten Bedingungen – etwa auf Autobahnen bei moderaten Geschwindigkeiten – durfte der Fahrer die Fahraufgabe zeitweise an das System übergeben, musste jedoch jederzeit eingriffsbereit bleiben.
Der entscheidende Schritt folgte 2021: Mit der Novelle des StVG erhielten Fahrzeuge auf SAE-Level 4 eine gesetzliche Grundlage. Sie dürfen ohne menschlichen Fahrer in zuvor genehmigten Betriebsbereichen verkehren – etwa als Shuttle auf festgelegten Routen oder für Hub-2-Hub-Transporte im Logistikverkehr. Deutschland gehörte damit zu den ersten Staaten weltweit, die den Betrieb solcher Fahrzeuge über Pilotprojekte hinaus im Regelfall erlaubten.
Ende 2024 konkretisierte die Bundesregierung ihre Vision in einem Strategiepapier. Autonome Mobilitätslösungen sollen zunächst im öffentlichen Nahverkehr und in der Logistik etabliert werden. Deutschland soll so nicht nur Vorreiter, sondern Leitmarkt für autonomes Fahren werden. Auch im Koalitionsvertrag ist dieses Ziel verankert. Doch trotz großer Ankündigungen bleiben zentrale Fragen offen: Wie schnell können Genehmigungen tatsächlich erteilt werden? Welche Infrastruktur ist nötig, um Fahrzeuge sicher in den Verkehr zu integrieren?
Auch auf europäischer Ebene wurden wichtige Grundlagen geschaffen. Mit der seit Juli 2022 geltenden General Safety Regulation gelten einheitliche Sicherheitsstandards für automatisierte Fahrzeuge. Ergänzend regeln internationale UN-ECE-Vorgaben wie die Norm für Automated Lane Keeping Systems (ALKS) den Einsatz von Level-3-Funktionen im Straßenverkehr. Diese Harmonisierung soll sicherstellen, dass deutsche Fahrzeuge auch europaweit zugelassen werden. Gleichzeitig zeigt sie: Autonomes Fahren lässt sich nicht allein national regulieren, sondern erfordert international abgestimmte Regeln.
Technische Aufsicht als Pflicht beim autonomen Fahren
Ein zentrales Element des deutschen Rechtsrahmens bleibt die sogenannte technische Aufsicht. Die Betriebserlaubnis für autonome Fahrzeuge durch das Kraftfahrt-Bundesamt (KBA) ist unter anderem an die technische Voraussetzung geknüpft, dass selbstständig oder durch eine Technische Aufsicht ein „risikominimalen Zustand“ hergestellt wird, sobald eine sichere Weiterfahrt nicht mehr möglich ist. Das Konzept der Technischen Aufsicht beschreibt dabei eine natürliche Person, die die autonomen Fahrfunktionen jederzeit deaktivieren sowie dem Fahrzeug Manöver vorschlagen kann, wenn es selbst nicht mehr weiterweiß. Dazu könnten etwa zwingende Überholvorgänge bei durchgezogenem Mittelstreifen oder etwaige Situationen zählen, die grundsätzlich gegen die Straßenverkehrsordnung verstoßen, im Einzelfall aber geboten sind. Die Aufsicht hat jedoch keinen Zugriff auf die Fahrzeugsteuerung selbst, sondern wacht lediglich über das System.
Wer haftet für autonome Fahrzeuge?
Einer der größten Kritikpunkte des Rechtsrahmens bleibt auch 2025 die Haftungsfrage. Zwar betonte Ex-Verkehrsminister Alexander Dobrindt schon 2017, dass im automatisierten Modus der Hersteller in die Pflicht genommen werden müsse – durchgesetzt wurde dies bis heute nicht. Nach wie vor gilt die verschuldensunabhängige Halterhaftung: Selbst vollautonome Fahrten begründen keine Ausnahme, der Halter trägt weiterhin die Betriebsgefahr, seine Versicherung bleibt die erste Anlaufstelle im Schadensfall.
Eine direkte Herstellerhaftung existiert auch 2025 nicht. Sie greift nur dann, wenn nachgewiesen werden kann, dass ein technischer Defekt oder ein Konstruktionsfehler den Unfall verursacht hat. In der Praxis ist dieser Nachweis schwierig, da Fahrzeuge heute aus hochkomplexen Systemen bestehen: Sensoren von Zulieferern, Software von Drittanbietern und KI-Algorithmen interagieren in Echtzeit. Wer in einem Schadensfall tatsächlich den Fehler verursacht hat, lässt sich nicht immer zweifelsfrei bestimmen. Zwar müssen Fahrzeuge mit einem Ereignisdatenspeicher („Blackbox“) ausgestattet sein, doch auch diese Systeme können nur Indizien liefern, keine eindeutige Schuldzuweisung.
Während Deutschland an der Halterhaftung festhält, diskutieren andere Länder alternative Modelle. In Frankreich etwa wird verstärkt über eine Herstellerhaftung für bestimmte Szenarien nachgedacht, in den USA gelten in einigen Bundesstaaten bereits Sonderregelungen für autonome Shuttle-Dienste. Auf europäischer Ebene könnte der AI Act, der 2024 verabschiedet wurde, die Diskussion zusätzlich befeuern: Er schreibt Transparenz- und Risikomanagementpflichten für KI-Systeme vor, die perspektivisch auch als Grundlage für Haftungsfragen herangezogen werden könnten.
Welche Entscheidungen dürfen Algorithmen treffen?
Eine große Hürde liegt weiterhin in der ethischen und verfassungsrechtlichen Bewertung: Algorithmen dürfen keine Entscheidungen treffen, die Menschen nach persönlichen Merkmalen wie Alter, Geschlecht oder Gesundheitszustand gewichten. Diese rote Linie hat die Ethik-Kommission 2017 gezogen; zugleich fordert sie, Systeme so zu gestalten, dass kritische Situationen gar nicht erst entstehen und das Fahrzeug im Zweifel in einen risikominimalen Zustand übergeht. Diese Prinzipien sind bis heute maßgeblich und fließen in Recht und Genehmigungspraxis ein. Die vielzitierte „Leben-gegen-Leben“-Abwägung bleibt rechtlich nicht normiert: Das Recht erlaubt keine Programmierung, die Unbeteiligte „opfert“ oder Menschen nach Eigenschaften priorisiert. Zulässig ist eine generelle Priorisierung des Schutzes menschlichen Lebens vor Sach- und Tierschäden; darüber hinaus gilt das Diskriminierungsverbot.
Sollte ein autonomes Auto entgegen aller Erwartungen einen Unfall haben, dürfte das Leben eines Kleinkinds also nicht über das einer Seniorin gestellt oder unbeteiligte Passanten geopfert werden. Steht die Abwägung zwischen einer Menschengruppe und einer Einzelperson an, dürfte der Schaden minimiert, aber nicht das „sakrosankte“ Individuum absichtlich getötet werden. Eine Erkenntnis, die in der Theorie ansatzweise umsetzbar erscheint, Programmierer jedoch mit einem Ding der Unmöglichkeit konfrontiert. „Wen sollen wir zuerst umfahren? Wenn wir weiterhin so die Agenda setzen, dann kommen wir nicht voran“, gibt Christoph Lütge, Direktor des Instituts für Ethik in der KI der TU München, in einer Studie der & Audi Initiative zu bedenken. Er fordert eine Konkretisierung ethischer Grundsätze anhand praxisnaher Situationen anstatt emotionaler und ideologisch geführter Debatten.
Dieser Artikel erschien ursprünglich im September 2021 und wird seitdem fortlaufend aktualisiert.