Interview mit Oliver Belitz und Nils Lölfing, Anwaltskanzlei Bird & Bird
„Agentic AI wirft neuartige Haftungsfragen auf.“
Agentic AI gilt als nächste Evolutionsstufe der künstlichen Intelligenz: Systeme handeln eigenständig, treffen Entscheidungen und lösen Probleme. Doch wie passt das zum AI Act und zur Regulierung im Automotive-Sektor? Zwei Rechtsexperten klären offenen Fragen.
Martin LargeMartinLargeMartin LargeRedakteur
8 min
Agentic AI verschiebt Verantwortung zwischen Mensch und System – und stellt bestehende Rechtsrahmen vor neue Herausforderungen.InfiniteFlow – Adobe Stock
Anzeige
Agentic AI gilt derzeit als einer der spannendsten – und zugleich missverständlichsten – Begriffe der KI-Debatte. Anders als klassische generative Systeme reagieren agentische Systeme nicht nur auf Prompts, sondern planen Aufgaben, koordinieren Zwischenschritte und führen Prozesse eigenständig aus. Damit verschiebt sich die Rolle von KI vom Assistenzwerkzeug zum handelnden System; mit weitreichenden Folgen für Organisation, Governance und Regulierung.
Auch im aktuellen Themenkompass „Agentic AI“ wird deutlich, dass diese Entwicklung weit über eine neue Softwaregeneration hinausgeht: Wenn KI-Agenten Daten, Anwendungen und Werkzeuge verbinden und selbstständig Prozessschritte auslösen, geraten Verantwortlichkeiten, Entscheidungslogiken und rechtliche Rahmenbedingungen zunehmend in den Fokus.
Anzeige
Genau an dieser Schnittstelle von Technologie und Regulierung setzt auch der Vortrag von Oliver Belitz und Dr. Nils Lölfing (Bird & Bird) auf der Mobility + AI Conference an. Unter dem Titel „AI Act in the Automotive Sector: Sectoral Interplay, Legislative Updates, and Agentic AI“ analysieren die beiden Rechtsexperten, wie der europäische AI Act mit bestehenden Automotive-Regelwerken zusammenwirkt – und welche neuen Fragen agentische Systeme aufwerfen.
Doch wie lässt sich Agentic AI rechtlich überhaupt einordnen? Welche Anforderungen des AI Acts werden für die Automobilindustrie besonders relevant – und wo liegen die größten offenen Punkte? Darüber sprechen wir im Interview mit Oliver Belitz und Nils Lölfing.
Was ist Agentic AI – und warum wird sie gerade jetzt relevant?
Anzeige
„Agentic AI“ ist ein noch relativ junges Buzzword – wie definieren Sie persönlich diesen Begriff?
Oliver Belitz: „Agentic AI“ beschreibt KI-Systeme, die mit einer eigenen Handlungsmacht („Agency“) ausgestattet sind. Während klassische generative KI reaktiv auf einen Prompt antwortet – also primär Inhalte erzeugt –, fokussiert sich Agentic AI auf das eigenständige Handeln und Lösen von Problemen. Diese Systeme agieren proaktiv, indem sie einen sogenannten Sense-Plan-Act-Zyklus durchlaufen: Sie erfassen ihre Umgebung, leiten logische Schlüsse ab, nutzen eigenständig Tools und lernen aus den Ergebnissen. Das System benötigt lediglich ein übergeordnetes Ziel und führt die dafür nötigen Teilschritte mit minimaler menschlicher Überwachung aus. Ein Beispiel: Eine herkömmliche KI formuliert auf Zuruf eine E-Mail an einen Lieferanten. Eine zukünftige Agentic AI hingegen erkennt möglicherweise selbstständig einen Engpass in der Lieferkette, analysiert Alternativen, verhandelt per E-Mail neue Konditionen, bucht die Bestellung in Drittsystemen ein und passt die Produktionspläne an. Die KI wird vom Assistenten zum Akteur.
Was können Zuhörer von Ihrem Vortrag „AI Act in the Automotive Sector: Sectoral Interplay, Legislative Updates, and Agentic AI“ auf der Mobility + AI Conference erwarten?
Anzeige
„Viele Unternehmen haben sich mit den rechtlichen Anforderungen an KI beschäftigt – umgesetzt ist davon jedoch oft wenig.“, so Nils Lölfing von Bird & Bird.Bird & Bird
Nils Lölfing: Der Vortrag beleuchtet drei miteinander verzahnte Themen. Erstens das sektorale Zusammenspiel: Der AI Act gilt zwar nicht direkt für automatisiertes oder autonomes Fahren - die Branche hat erfolgreich für einen sektorspezifischen Ansatz lobbyiert - doch über das bestehende Typgenehmigungsrecht für Fahrzeuge wird die Verbindung hergestellt: Die Kommission ist ausdrücklich befugt, delegierte Rechtsakte zu erlassen, die zentrale High-Risk-Anforderungen des AI Act, etwa zu Risikomanagement, Daten-Governance und menschlicher Aufsicht, auf KI-Sicherheitskomponenten in Fahrzeugen übertragen. Ob und wann die Kommission von dieser Befugnis Gebrauch macht, ist bislang offen; konkrete Ankündigungen gibt es noch nicht. Wahrscheinlich ist es dennoch, denn die automotive-spezifische Regulierung für sicherheitsrelevante KI in Fahrzeugen weist noch einige Lücken auf, die geschlossen werden sollten. Der Zeitplan bleibt jedoch ungewiss; nicht zuletzt, weil parallel noch umfangreiche Secondary Legislation zum AI Act selbst erarbeitet werden muss, um dessen Anforderungen zu konkretisieren. Das kann dauern. Zweitens legislative Updates: Der Omnibus-Vorschlag der Kommission aus November letzten Jahres, der Änderungen zum AI Act vorschlägt, könnte Compliance-Fristen auch im Hochrisiko-Bereich verschieben, mit möglichen Folgewirkungen auf eben jene delegierten Rechtsakte, zu denen es bislang keine konkreten Ankündigungen gibt. Drittens Agentic AI: Anders als generative oder analytische KI handeln agentische Systeme wie erwähnt autonom, iterativ und über APIs hinweg — ohne menschliche Steuerung in jedem einzelnen Schritt. Das wirft neuartige Haftungs-, Aufsichts- und Zertifizierungsfragen auf, für die der bestehende Rechtsrahmen noch keine klaren Antworten liefert.
Mobility + AI 2026 – Trust, Tech & Regulations
Agentic AI ist eines der Themen der internationalen Fachkonferenz Mobility+AI. Diese findet am 14.–15. April 2026 in München/Ottobrunn auf dem Innovationscampus Mobilität der TU München und der IABG statt. Die Konferenz bringt internationale Fachleute aus OEMs, Behörden, Prüfdiensten, Versicherern und Tech-Unternehmen zusammen. Im Fokus stehen End-to-End-Validierung und Regulierung softwaredefinierter Fahrzeuge – von szenariobasierten Tests über mehrsäulige Nachweise bis hin zu Homologation und OTA-Updates. Zu den Highlights zählen Panels zu Technologie und Regulierung, Live-Demos autonomer Fahrzeuge auf einem zertifizierten Testgelände, interaktive Workshops, praxisnahe Sessions sowie exklusive Executive-Meetings. Bestätigte Sprecher sind unter anderem Richard Damm (KBA), Dr. Xavier Valero González (DEKRA), Thomas Quernheim (TÜV Rheinland), Ernst Stoeckl-Pukall und Marco Schuldt (BMWK), Dr. Frederik Zohm (MAN), Dr. Christian Sahr (AZT), Intakhab Khan (AAI) sowie Experten von Audi, BMW, Mercedes-Benz und weiteren OEMs und Tier-1s.
Was bedeutet der AI Act für Agentic AI im Automotive-Sektor?
Warum ist Agentic AI jetzt besonders relevant im Bereich Automotive?
Oliver Belitz, Bird & Bird: „KI-Governance ist das organisatorische Fundament für rechtssicheren KI-Einsatz.“Bird & Bird
Nils Lölfing: Nicht alles, was aktuell als Agentic AI bezeichnet wird, also Systeme, die eigenständig Ziele verfolgen, Entscheidungen treffen und handeln, erfüllt diese Schwelle tatsächlich. Vieles ist schlicht klassische Automatisierung oder reaktive KI mit neuem Label. Das nennt man auch treffend „Agent-Washing". Dennoch bietet der Automotive-Sektor strukturell ideale Voraussetzungen für Agentic AI. Am deutlichsten wird das beim autonomen Fahren: Systeme wie Tesla FSD oder Waymo analysieren Sensordaten in Echtzeit, bewerten situative Variablen und treffen eigenständige Entscheidungen; das entspricht dem, was Agentic AI konzeptionell ausmacht. Ähnliches gilt für Testautomatisierung moderner Software-defined Vehicles, wo Agenten selbstständig Testszenarien generieren und priorisieren. Mit zunehmender Automatisierung (Level 4/5-Autonomie) und dem Wachstum von Mobility-as-a-Service, wo Agenten künftig Routing, Pricing und Flottensteuerung in Echtzeit koordinieren, dürfte die Relevanz weiter steigen. Die Branche steht also nicht vor einem reinen Hype-Phänomen, aber vor einer entscheidenden Frage: Was ist wirklich agentic, und was wird nur so genannt?
Anzeige
Welche AI-Act-Anforderungen sind für agentische Systeme besonders wichtig und wo erwarten Sie in der Praxis die größten Umsetzungsprobleme?
Oliver Belitz: Die größte praktische Herausforderung bei Agentic AI ist die rechtliche Klassifizierung unter dem AI Act. Agenten sind keine isolierten Modelle, sondern komplexe Frameworks. Sie bestehen aus einem Zusammenspiel von LLMs, spezifischen Daten, Schnittstellen (APIs) und weiteren Softwarekomponenten. Die rechtssichere Einordnung dieses vernetzten Ökosystems ist extrem anspruchsvoll: Ab welchem Integrationsgrad sprechen wir formell von einem regulierten ‚KI-System‘? Und wenn integrierte LLMs als General Purpose AI (GPAI) gelten – führt deren Anpassung, etwa durch Fine-Tuning für agentische Aufgaben, zur Entstehung eines neuen GPAI-Modells mit eigenen Pflichten? Diese Fragen drängen, da die relevanten GPAI-Vorgaben bereits seit August 2025 greifen. Die im Sommer 2025 veröffentlichten Leitlinien, wie der Code of Practice, sollen zwar Orientierung bieten, erhöhen in der Praxis aber oft die Komplexität bei der Zuordnung von Verantwortlichkeiten in diesen mehrteiligen Frameworks. Zudem bleibt die Rechtslage dynamisch: Da Agentic AI bei der Entstehung des AI Acts noch kaum eine Rolle spielte, wird das Thema aktuell auf europäischer Ebene nachjustiert. In den beginnenden Trilogverhandlungen zum geplanten ‚Digital Omnibus Package‘ wird diskutiert, Agentic AI als eigenständige Kategorie einzuführen oder die bestehende Systemdefinition entsprechend zu erweitern. Der Ausgang ist hier noch völlig offen.
Agentic AI erfasst ihre Umgebung, leitet logische Schlüsse ab, nutzt eigenständig Tools und lernt aus den Ergebnissen.
Dr. Nils Lölfing, Rechtsanwalt für Technologie-, KI- und Datenschutzrecht, bei Bird & Bird
Wie unterscheidet sich die Regulierung weltweit etwa in den USA und China – und was bedeutet das für globale Produkte?
Anzeige
Oliver Belitz: Die Regulierung driftet global stark auseinander. Während die EU mit dem AI Act einen horizontalen, bindenden ‚Top-Down‘-Ansatz mit Fokus auf Produktsicherheit und Grundrechte verfolgt, dominiert in den USA auf Bundesebene das Prinzip ‚Market & Innovation‘ durch Deregulierung. Verbindliche Regeln entstehen in den USA eher auf Ebene der Bundesstaaten, was zu einem rechtlichen ‚Patchwork‘ führt. Jüngste Vorstöße der neuen US-Regierung versuchen nun sogar, diese einzelstaatlichen Gesetze juristisch zu blockieren, was die Rechtsunsicherheit für Unternehmen extrem erhöht. Bei Agentic AI steht in den USA daher weniger die regulatorische Produktklassifizierung im Vordergrund, sondern vor allem das ‚Litigation Risk‘ – also die zivilrechtliche Haftung für Handlungen des Agenten. China wiederum wählt einen vertikalen Ansatz mit klarem Fokus auf staatliche Kontrolle. KI-Outputs müssen dort strengen ideologischen Vorgaben entsprechen, Modelle und Daten unterliegen rigiden Registrierungs- und Prüfpflichten. Für globale Automotive-Produkte bedeutet das: Eine ‚One-Size-Fits-All‘-Strategie ist faktisch tot. Wer automatisierte und autonome Fahrzeuge weltweit anbietet, muss auf modulare Architekturen setzen. Die KI-Systeme müssen je nach Region stark lokalisiert und – wie im Fall von China – oft sogar in komplett isolierten Ökosystemen betrieben werden.
Wird Agentic AI die Automotive-Industrie grundlegend verändern?
Welche Mindestmaßnahmen braucht Agentic AI aus juristischer Sicht?
Anzeige
Oliver Belitz: In den meisten agentischen Frameworks arbeiten LLMs, die unter dem AI Act als General Purpose AI (GPAI) Modelle gelten. Die entscheidende Frage für die Mindestmaßnahmen ist die rechtliche Rolle des Nutzers: Werden Modelle nur in einen Prozess eingebunden, ohne sie auf Modellebene zu verändern (etwa durch Fine-Tuning), wird das Unternehmen in der Regel nicht zum ‚Anbieter‘ (Provider) eines GPAI-Modells. Das erspart die tiefgreifendsten Pflichten, muss aber im Einzelfall sauber geprüft werden. Baut ein Unternehmen den agentischen Workflow jedoch selbst zusammen und nimmt dieses System unter eigenem Namen in Betrieb – selbst wenn dies nur rein intern geschieht – kann das Unternehmen so zumindest zum Anbieter des entstehenden KI-Systems werden. Dies löst auch eigene Pflichten aus, wenn auch weniger intensive als beim Anbieter eines GPAI-Modells. Eine einfache Checkliste gibt es folglich nicht. Da sich agentische Use Cases technisch stark unterscheiden, muss jedes Unternehmen seinen Einsatz individuell am AI Act spiegeln, um die genauen Pflichten abzuleiten.
Unternehmen müssen klare Autonomiegrenzen für Agenten festlegen.
Dr. Nils Lölfing, Rechtsanwalt für Technologie-, KI- und Datenschutzrecht, bei Bird & Bird
Wo sind die kritischsten Schnittstellen zwischen AI Act und bestehenden Automotive-Regelwerken?
Nils Lölfing: Der Ausgangspunkt klingt klar: KI-basierte Sicherheitsbauteile in automatisierten oder autonomen Fahrzeugen fällt nicht direkt unter den AI Act, sondern unter das Typgenehmigungsrecht (VO 2018/858), also das EU-Zulassungsverfahren für neue Fahrzeugtypen. Doch die Abgrenzung ist alles andere als sauber. Drei Schnittstellen sind besonders kritisch: Erstens der Scope: Was ist eine „Sicherheitsbauteil"? Der AI Act definiert den Begriff weit. In einem modernen Fahrzeug mit über 30.000 Teilen und wachsender KI-Dichte ist kaum trennscharf, welche Systeme künftig erfasst sind. Die Kommission sollte in delegierten Rechtsakten klar definieren, welche KI-Systeme welcher Anforderungskategorie unterfallen. Zweitens Daten-Governance: Autonomes Fahren braucht Petabytes repräsentativer Trainingsdaten. Wie Repräsentativität automotive-spezifisch aussehen soll, ohne Entwicklung zu blockieren, muss die Kommission praxistauglich konkretisieren. Drittens Menschliche Aufsicht: Echtzeit-Entscheidungen autonomer Fahrzeuge lassen wirksame menschliche Kontrolle strukturell kaum zu. Hier brauchen wir ebenfalls sektorspezifische Anforderungen; von technischen Anzeigesystemen bis zu klaren Vorgaben, wann und wie Insassen eingreifen können sollen.
Welche Governance-Strukturen brauchen Unternehmen für Agentic AI?
Was raten Sie Unternehmen organisatorisch: Welche internen Rollen und Prozesse braucht es, damit Agentic AI nicht nur technisch funktioniert, sondern rechtssicher entwickelt, eingeführt und betrieben werden kann?
Nils Lölfing: Gerade die Eigenschaften, die Agentic AI ausmachen - Autonomie, Iterativität, oft fehlende Sichtbarkeit - erzeugen neuartige Risiken, die je nach Einsatzbereich konkrete rechtliche Anforderungen auslösen: im Haftungs-, Produkt- oder Datenschutzrecht. KI-Governance, also die bewusste Festlegung interner Zuständigkeiten und Prozesse im Umgang mit KI, ist dabei das organisatorische Fundament, das es überhaupt erst ermöglicht, konkrete rechtliche Anforderungen strukturiert einzuhalten und diese Risiken zu mitigieren. Drei Prioritäten sind aus unserer Sicht insb. entscheidend: Erstens: Governance vor Einführung: Bevor ein agentisches System produktiv geht, müssen Zuständigkeiten geklärt sein. Da agentische KI technische, rechtliche und unternehmerische Fragen gleichzeitig aufwirft, braucht es interdisziplinäre Verantwortung: Technik, Recht und Geschäftsführung müssen unter Berücksichtigung dieser neuartigen Risiken gemeinsam festlegen, welche Entscheidungen ein Agent eigenständig treffen darf, wer intern Rechenschaft trägt und welche Eskalationswege greifen, wenn etwas schiefläuft. Zweitens: Autonomiegrenzen bewusst festlegen: Es braucht klare, dokumentierte Regeln, welche Maßnahmen menschliche Freigabe erfordern, insbesondere bei folgenreichen oder nicht umkehrbaren Schritten. Im Automotive-Bereich etwa: jede agentische Interaktion mit sicherheitskritischen Fahrzeugsystemen. Drittens: Nachvollziehbarkeit als Pflicht: Agentische Systeme müssen so gestaltet sein, dass ihre Entscheidungspfade für interne Kontrollen, behördliche Prüfungen und im Streitfall rekonstruierbar sind. Der AI Act verpflichtet Anbieter von Hochrisiko-KI-Systemen ausdrücklich zur automatischen Protokollierung von Systemereignissen und zur technischen Dokumentation; wer diese Anforderungen von Anfang an einplant, vermeidet kostspieligen Nachbesserungsaufwand.
Welche typischen Lücken sehen Sie derzeit in der Praxis?
Nils Lölfing: Viele Unternehmen haben sich mittlerweile mit den rechtlichen Anforderungen an KI-Einsatz auseinandergesetzt — getrieben etwa durch den AI Act und wachsenden regulatorischen Druck. Aber: Auseinandergesetzt ist nicht dasselbe wie umgesetzt. Das gilt bereits für klassische generative bzw. analytische KI — bei Agentic AI, wo die Risiken neuartiger und schwerer greifbar sind, umso mehr.
Oliver Belitz: Drei Lücken fallen besonders auf: Erstens die KI-Richtlinie als Schubladendokument: Eine interne AI Policy existiert häufig, oft aber als angepasstes Mustertemplate, das nicht konkret auf die eigenen Prozesse und Einsatzbereiche heruntergebrochen ist und im Alltag schlicht nicht gelebt wird. Bei Agentic AI ist das besonders problematisch: Wenn ein System autonom und iterativ handelt, reichen abstrakte Grundsatzerklärungen erst recht nicht. Mitarbeiter müssen konkret verstehen, welche Entscheidungen das System eigenständig treffen darf — und wo zwingend ein Mensch eingreifen muss. Zweitens fehlende Bestandsaufnahme: Viele Unternehmen wissen schlicht nicht, welche KI-Systeme bei ihnen tatsächlich im Einsatz sind — insbesondere wenn Fachabteilungen eigenständig Tools einführen, ohne zentrale Kontrolle. Bei Agentic AI verschärft sich das: Systeme, die eigenständig handeln und dabei auf externe Dienste, Daten oder APIs zugreifen, entziehen sich noch leichter dem Überblick. Ohne diese Bestandsaufnahme ist strukturierte Governance nicht möglich. Drittens keine klaren Zuständigkeiten: KI-Fragen landen oft weder eindeutig bei der Rechtsabteilung noch bei der IT und fallen damit zwischen die Stühle. Bei Agentic AI, wo Haftungs-, Produkt- und Datenschutzfragen gleichzeitig und in Echtzeit entstehen können, ist das keine organisatorische Nachlässigkeit mehr — sondern ein konkretes rechtliches Risiko.