Illustration Digitalisierung Recht

Der Verordnungsentwurf soll laut EU-Parlament gewährleisten, dass KI-Systeme, die auf den europäischen Markt gebracht und dort eingesetzt werden, sicher sind und die entsprechenden Grundrechte und Werte respektieren. (Bild: Adobe Stock / Pixx Studio)

automotiveIT Kongress 2024

IT Team Award automotiveIT

Am 01. Oktober 2024 steht Deutschlands größtes Branchentreffen der Automobil- und IT-Industrie in Berlin vor der Tür. CIOs und IT-Experten stellen auf dem automotiveIT Kongress ihre aktuellen Strategien und Projekte vor. Erleben Sie spannende Vorträge, Paneldiskussionen, Insights auf unseren Deep Dive-Bühnen, die Verleihung der diesjährigen IT Team Awards und natürlich das Networking mit der Community hautnah. 🎫 Jetzt Ticket sichern!

Egal ob beim Kundenservice, in der Fahrzeugentwicklung oder der Produktion: Unternehmen der Autoindustrie stecken Hals über Kopf im KI-Hype und setzen kontinuierlich neue Use Cases auf. Momentan befindet sich vor allem generative KI, die darauf spezialisiert ist, synthetische Daten zu erstellen, auf dem Vormarsch in die Branche. Künstliche Intelligenz erfreut sich dank ihres enormen Potenzials zur Effizienzsteigerung sowie Automatisierung und Prozessoptimierung nicht nur in der Autoindustrie zunehmender Beliebtheit. So hat der Tech-Trend auch die Aufmerksamkeit der europäischen Gesetzgeber auf sich gezogen.

Bereits im April 2021 präsentierte die Europäische Kommission ihren Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für KI. Vertreter der EU-Staaten stimmten Anfang Februar für den Vorschlag, der künstliche Intelligenz bald schärferen Regeln unterwirft. Unterhändler von Europaparlament und EU-Ländern hatten sich im Dezember nach Marathonverhandlungen auf eine Regulierung von KI geeinigt.

Kürzlich gab auch das EU-Parlament grünes Licht für die verschärften KI-Regel, indem es in Straßburg mehrheitlich für ein entsprechendes Gesetz stimmte. Demnach sollen KI-Systeme künftig in verschiedene Risikogruppen eingeteilt werden. Je höher die potenziellen Gefahren einer Anwendung sind, desto höher sollen die Anforderungen sein. Bestimmte KI-Anwendungen, die gegen EU-Werte verstoßen, sollen ganz verboten werden. Für die Mitgliedstaaten bedeutet das nun, dass sie zunächst schrittweise verbotene Systeme außer Betrieb nehmen müssen. Nach zwei Jahren sollen alle Punkte des Gesetzes vollständig umgesetzt sein. Zudem müssen etwa Sanktionen für Verstöße beschlossen werden.

Welche Regelungen umfasst der AI Act?

Dem Rat der Europäischen Union zufolge umfasst die vorläufige Vereinbarung unter anderem folgende Elemente:

 

  • Definitionen und Anwendungsbereiche: Die Kompromissvereinbarung passt die Definition von KI-Systemen an die OECD-Richtlinien an und klärt, dass die Verordnung nicht für bestimmte Bereiche, darunter militärische Zwecke oder Forschungszwecke gilt.

 

  • Risikoeinstufung von KI-Systemen: Die Vereinbarung führt eine horizontale Schutzebene für KI-Systeme ein und legt Transparenzverpflichtungen fest. Hochrisiko-KI-Systeme unterliegen strengeren Anforderungen, während bestimmte KI-Praktiken wie kognitive Verhaltensmanipulation oder biometrische Kategorisierung verboten sind.

 

  • Ausnahmen für Strafverfolgungsbehörden: Spezielle Regelungen für die Verwendung von KI durch Strafverfolgungsbehörden, einschließlich Notfallverfahren und Schutz der Grundrechte werden im Rahmen des AI Act festgehalten.

 

  • Governance-Architektur: Ein Amt für Künstliche Intelligenz wird zur Überwachung von GPAI-Modellen eingerichtet, begleitet von einem wissenschaftlichen Gremium und einem beratenden Forum.

 

  • Regelungen für Verstöße: Geldbußen für Verstöße gegen das KI-Gesetz basieren auf dem Jahresumsatz des jeweiligen Unternehmens und ein entsprechendes Höchstmaß wird für KMU und Startups festgelegt.

 

  • Maßnahmen Innovationsförderung: Es sollen KI-Sandkästen, Erprobung unter realen Bedingungen und Ausnahmeregelungen für kleinere Unternehmen eingeführt werden, um Innovationen zu fördern.

Die Computer & Communications Industry Association (CCIA Europe) kritisierte, dass viele der neuen KI-Vorschriften unklar blieben und die Entwicklung und Einführung innovativer KI-Anwendungen in Europa verlangsamen könnten. „Bei der Umsetzung der Regeln werden wir Innovationsfreundlichkeit, Rechtsklarheit für Unternehmen und schlanke und bürokratiearme Strukturen ins Zentrum stellen – für einen starken KI-Standort Europa“, kommentierte hingegen Bundeswirtschaftsminister Habeck.

Wird der AI Act zum Rückschlag fürs autonome Fahren?

Da künstliche Intelligenz ganz ohne Zweifel von der gesamten Automobilindustrie als Gamechanger für die automobile Wertschöpfungskette angesehen wird, stellt sich dennoch die Frage, ob die strengere Regulierung entsprechender Technologien für die Automobilindustrie zum großen Hemmnis wird. Beispielsweise im Bereich des autonomen Fahrens ist die Branche ganz besonders auf den Einsatz von künstlicher Intelligenz angewiesen.

Rechtsexperte Nils Lölfing, der für die internationale Wirtschaftskanzlei Bird & Bird tätig ist, sieht durch die vorläufigen Einigungen des AI Acts keine akute Bedrohung für die Weiterentwicklung des autonomen Fahrens: „Konkret plant die EU-Kommission einen sogenannten delegierten Rechtsakt zur Verordnung 2018/858 über die Genehmigung von Fahrzeugtypen – ein Vorgehen, das bedeuten würde: Neue Anforderungen für den Einsatz von KI in Fahrzeugen werden in die bestehenden sektoralen Rahmenregelungen aufgenommen. Bezogen auf Fahrzeuge wäre das das EU-Typgenehmigungssystem für die Zulassung von Kfz. So könnte gewährleistet werden, dass KI-basierte-Systeme für Kfz in erster Linie sektorspezifisch reguliert bleiben.“

In ihrer jetzigen Ausgestaltung regle die KI-Verordnung lediglich, dass die Kommission bestimmte rechtliche Mindestanforderungen bei Kfz berücksichtigen soll. Darunter würden beispielweise Anforderungen in Bezug auf Daten, Daten-Governance, Dokumentation, Transparenz, menschliche Aufsicht sowie Sicherheit fallen. Wie innovationsfreundlich oder -feindlich sich die Verordnung auswirke, hänge von der genauen Umsetzung dieser Anforderungen ab. „Hier ist entscheidend, wie spezifisch und die besonderen Umstände der Automobilindustrie berücksichtigend die Anforderungen aufgestellt werden“, erklärt Lölfing.

Obwohl diejenigen KI-Anwendungen, die für das autonome Fahren unabdingbar sind, mit ziemlicher Sicherheit im Rahmen der Verordnung als Hochrisiko-Systeme eingestuft werden, gibt auch Berylls-Partner Matthias Kempf vorerst Entwarnung. „Die Anforderungen an die Risikobewertung können das Innovationstempo aufgrund zusätzlicher Vorschriften und Prüfprotokolle zunächst verlangsamen. Langfristig bieten diese Vorschriften jedoch auch einen klaren Rechtsrahmen, der den Herstellern helfen kann, das Vertrauen ihrer Kunden zu gewinnen“, gibt der Experte zu bedenken. „Wir sollten auch nicht vergessen, dass die Automobilindustrie in puncto Sicherheit bereits stark reguliert ist und in dieser Hinsicht als Maßstab für andere Branchen dient. Wir sind sicher, dass die Erstausrüster gut geeignet sind, die technologischen Aspekte hinter den Vorschriften des AI-Acts zu verstehen.“

KMU und Startups profitieren von Ausnahmen

Ein weiteres mögliches Hindernis entsteht in der Entwicklung von KI-Basismodellen. Immer mehr Automobilunternehmen setzen in Entwicklung, In-Vehicle-Anwendungen oder Produktion auf große Sprachmodelle – entweder auf Basis von ChatGPT oder mithilfe von Eigenentwicklungen wie zum Beispiel Luminous von Jungunternehmen wie Aleph Alpha. Dass der AI Act zusätzliche „technische Dokumentation“ von Trainings- und Testverfahren sowie die Erstellung entsprechender Nachweise zur Einhaltung urheberrechtlicher Bestimmungen fordert, bedeutet in erster Linie mehr komplexe Bürokratie. Das könnte für kleinere und mittelständische Unternehmen sowie Startups zum Verhängnis werden.

Das Gesetz sieht erhebliche Ausnahmen für KMU und Startups vor. Diese kleinsten Unternehmen werden nicht gezwungen sein, die Verpflichtungen in Bezug auf Qualitätsmanagementsysteme zu erfüllen, einschließlich der Führung einer umfassenden Dokumentation von Verfahren und so weiter“, weiß Dariusz Czuchaj, Anwalt für Datenschutz und Technologie. „Noch wichtiger ist, dass der letzte Entwurf des Gesetzes eine Befreiung für die Unternehmen vorsah, die anderen Vorschriften über Qualitätsmanagementsysteme im Rahmen des einschlägigen sektoralen EU-Rechts unterliegen. Dies dürfte für die Automobilindustrie eine enorme Erleichterung bedeuten, und wir hoffen, dass dies auch im endgültigen Text zu finden sein wird.“

Stärkt der AI Act Europa als Tech-Standort?

Zu guter Letzt bleibt die Frage, ob die neuen Regularien, obwohl sie die europäische Automobilindustrie vorerst nicht vor große Herausforderung stellen, einen negativen Einfluss auf den internationalen Wettbewerb haben könnten. Auch ohne verstärkte Bürokratie drohen besonders chinesische Wettbewerber durch hohes Innovationspotenzial am hiesigen Automobilmarkt vorbeizuziehen, während die Staaten mit attraktiven Subventionen locken und so eine Produktionsverlagerung bewirken wollen.

Rechtsexperte Lölfing kritisiert das verhängnisvolle Ungleichgewicht zwischen Regulierung und Innovation in Europa, das durch den AI Act noch weiter ins Negative rutschen könnte: Das ist ein Nachteil gegenüber den USA, die hier einen beobachtenden Ansatz fahren und im Prinzip kaum regulieren wollen. China hat demgegenüber schon einiges an KI-Regulierung hervorgebracht und ist hier am weitesten. Allerdings wird dort durch Investitionen darauf geachtet, die Balance zwischen Regulierung und Innovation zu gewährleisten.“

Berylls-Experte Kempf stellt jedoch die Bedeutung von Sicherheit in den Vordergrund und betont, dass das KI-Gesetz ebenso für Nicht-EU-Anbieter gelten muss, die ihre Produkte auf dem europäischen Markt einführen. In diesem Fall würden europäische Unternehmen von einem besseren Verständnis der Compliance-Verpflichtungen profitieren. „Ein weiterer Aspekt ist die Sicherheit der Systeme, insbesondere im Kontext des autonomen Fahrens. Der europäische Ansatz mag natürlich im Gegensatz zu den schnelleren, aber weniger regulierten Märkten wie den USA und China stehen, aber die jüngsten Ereignisse auf dem US-Markt haben deutlich gemacht, dass es keine Kompromisse geben kann, wenn es um Sicherheitsmerkmale von KI geht“, so Kempf.

 

mit Material der dpa

Sie möchten gerne weiterlesen?