Eine virtueller Kopf symbolisiert künstliche Intelligenz und ist umgeben von Paragraphen.

Künstliche Intelligenz ist ein Trendthema in der Autoindustrie. Doch die rechtlichen Rahmenbedingungen bleiben weit hinter den technischen Möglichkeiten zurück. (Bild: Andreas Croonenbroeck)

Während die Automatisierung menschliches Handeln auf Maschinen überträgt, folgt im Kontext von Hochleistungsalgorithmen und künstlicher Intelligenz die Digitalisierung menschlichen Denkens. Doch wer sich mit den rechtlichen Rahmenbedingungen dieser Entwicklung beschäftigt, stößt auf mehr offene Fragen als Antworten. „Wie in Algorithmen gefasste Entscheidungen verantwortet werden müssen, hat eine ganze andere Dimension als triviale Roboterarme“, betont Thomas Klindt, Rechtsanwalt und Partner bei der internationalen Wirtschaftskanzlei Noerr.

Maschinen können keinen Vertrag abschließen

Obwohl die Diskussion darüber erst am Anfang steht, finden sich in der Autobranche bereits zahlreiche klärungsbedürftige Anwendungsfälle – angefangen bei Bestellvorgängen. Was früher Disponenten und Controlling oblag, übernehmen mittlerweile Algorithmen: Sie überwachen die Fertigungslinie, stellen Wartungsbedarfe fest und ordern neue Materialien. Bots überprüfen Nachfragen, erstellen Angebote, schreiben aus, kaufen ein und stellen das Recht damit vor völlig neue Herausforderungen.

Gegenseitige Ansprüche bei Fehlern oder Nichterfüllung sind unter natürlichen und juristischen Personen klar geregelt. Machine-to-Machine-Bestellvorgänge (M2M) seien hingegen kein Vertragsabschluss im juristischen Sinne, erklärt Klindt. Sorgt ein algorithmischer Fehler für ein verspätetes Lieferdatum, den falschen Lieferort oder eine zu hohe Bestellmenge, sind die Beteiligten auf sich alleine gestellt, obwohl das Haftungsrecht derartige Risiken ausreichend absichert. Abhilfe schaffe lediglich eine Rahmenvereinbarung.

Rechtspersönlichkeit für KI-Systeme ist umstritten

Laut Klindt sei es unerlässlich, dass vorab festgehalten wird, unter welchen Parametern die kommunizierenden Systeme eine Bestellung auslösen. „Allerdings setzt dies Vorabgespräche zwischen den Beteiligten und damit das Wissen um künftige Geschäftsbeziehungen voraus.“ Ausschreibungen, Erstbestellungen oder unerwartete Havarien würden weiterhin zu juristisch unangenehmen Situationen führen und die Möglichkeiten smarter Algorithmen beschneiden.

Eine neue Rechtspersönlichkeit für KI-Systeme könnte dies ändern, ist aber höchst umstritten. So steht der Branchenverband Bitkom den Überlegungen zur Einführung einer „elektronischen Person“ ablehnend gegenüber und auch Rechtsexperte Klindt glaubt in absehbarer Zeit nicht an eine Überwindung der kulturellen Widerstände: „Wenn wir von Hochleistungsalgorithmen anstatt von KI sprechen, merken wir, dass diese Systeme noch lange nicht erfüllen, was eine ganze Person ausmacht.“

Autonomie verhindert Letztverantwortung des Fahrers

Im Bereich des autonomen Fahrens sind die Unklarheiten weitaus grundlegender. Hier stehen nicht nur mögliche Fehlerquellen, sondern digitale Entscheidungen als Ganzes auf dem Prüfstand. Im Falle eines Fahrerlosen Transportsystems (FTS) innerhalb des Werks erscheint es leicht, die Gesundheit der Mitarbeiter stets vor den Schutz der Güter zu stellen. Im Straßenverkehr führt die Abwägung zwischen einzelnen Rechtsgütern hingegen zu erheblichen Problemen. Zwar unterliegen automatisierte Systeme wie Fahrassistenten weiterhin der Letztverantwortung des Menschen und tragen zur Reduzierung von menschlichen Fehleinschätzungen bei, die ethische und rechtliche Problematik des vollautonomen Fahrens bleibt davon jedoch unberührt.

„Es muss die richtige Balance gefunden werden, um sicherzustellen, dass künftige KI-Regulierungen die Entwicklung sichererer Fahrzeuge nicht gefährden, da diese einen großen Beitrag dazu leisten können, die EU-Ziele im Bereich der Verkehrssicherheit zu erreichen“, kommentiert Stephanie Leonard, Head of Traffic Innovation and Policy bei TomTom, die Bestrebung europäischer Regulierungsbehörden, das autonome Fahren als einen der Hauptanwendungsfälle für KI zu benennen. Im Zuge eines neuen Gesetzesentwurfs soll Deutschland gar zum Vorreiter werden.

Fehlerfreiheit ist die einzige Option

Die grundsätzlichste aller Fragen lässt die Politik dabei unbeantwortet: Wie können vollautonome Fahrzeuge mit unseren fundamentalsten Rechtsgrundsätzen vereinbart werden? Eines von unzähligen Praxisbeispielen: Ein Fußgänger wird auf die Fahrbahn gestoßen, doch der Bremsweg des vollautonomen Fahrzeugs ist zu lang, um eine Kollision zu verhindern. Es bestehen die Alternativen, auf die Gegenfahrbahn auszuweichen, wo ein Unfall mit einem Pkw droht, oder in eine Mauer am Straßenrand zu fahren und damit das Leben des Fahrers zu gefährden. Wofür soll sich der Algorithmus entscheiden?

Eine Abwägung „Leben gegen Leben“ ist dem Programmierer durch das deutsche Recht verboten und der Gesetzgeber will diese auch künftig nicht treffen. „Er will ihr gar keinen Raum geben, weil wir keine Ahnung haben, wo diese Debatte hinführen würde“, betont Klindt. Früher plädierte er deshalb für den Zufall als Entscheidungsfinder, mittlerweile ist er zu der Einsicht gelangt, dass es diesen in einer binären Computerwelt nicht geben kann. Die einzige Möglichkeit der Realisierung wäre somit, wenn vollautonome Systeme keinerlei internen und externen Störungen unterliegen.

Juristen stehen vor einer Sackgasse

Sicherlich kann eine vernetzte Umwelt im Sinne einer V2X-Kommunikation solche Unvorhersehbarkeiten minimieren, vor einem Restrisiko durch „traditionelle“ Fahrzeuge und Infrastruktur sowie kriminelle Handlungen bleiben die Systeme jedoch nicht gefeit. Der Algorithmus muss eine Entscheidung treffen können. Selbst wenn der Gesetzgeber diese Zwickmühle auflöst, bliebe eine weitere Problematik bestehen. „Der Umgang mit der Haftung beim autonomen Fahren bleibt ein Knackpunkt für die Branche mit vielen offenen Fragen – hier bedarf es rechtlicher Klarheit“, so TomTom-Expertin Stephanie Leonard.

Ihrer Ansicht nach müsse ein europäischer Rahmen gefunden werden, wie mit Todesfällen und Verletzungen durch autonome Systeme umgegangen werden soll. Bislang führen zivil- und strafrechtliche Normen jedenfalls zu keinem praktikablen Ergebnis. „Mit den momentanen juristischen Mitteln und Werkzeugen stehen wir vor einer Sackgasse“, fasst Klindt die Lage zusammen. Es benötige dringend eine intensive Diskussion auf allen gesellschaftlichen Ebenen über Sinn und Zweck von KI-Systemen. Erst danach könnten Politik und Recht den Rückstand hinsichtlich digitalisierter Entscheidungen aufholen – ein Schritt nach dem anderen.

Sie möchten gerne weiterlesen?