Ein Mann codet an einem Laptop.

Im AI Lab arbeiten KI-Experten aus den TÜV-Organisationen an praktischen Prüfszenarien.

Im TÜV AI Lab werden KI-Experten aus den TÜV-Organisationen an praktischen Prüfszenarien arbeiten. So könnten die Mitarbeiter zum Beispiel ermitteln, wie sicher automatisierte Fahrzeuge mit KI–Systemen Personen, Verkehrszeichen oder bestimmte Hindernisse erkennen und darauf reagieren. Dabei spielen sowohl Performanz als auch Aspekte der Cybersecurity und der Robustheit von KI eine wichtige Rolle.

Eine entsprechende Prüfung sollte in Zukunft Voraussetzung für die Zulassung neuer Fahrzeuge sein. „Künstliche Intelligenz ist komplex und kann sich dynamisch verhalten“, sagte Dirk Schlesinger, Leiter des TÜV AI Labs. „Also können wir bestehende Prüfansätze nicht einfach übertragen, sondern müssen neue Testmethoden entwickeln.“

Dabei finden auch die Daten Berücksichtigung, mit denen Algorithmen trainiert werden. Beispielsweise können die Trainingsdaten eines KI-Systems für die Personalauswahl zu einer Benachteiligung bestimmter Personengruppen führen, wenn die Daten nicht ausgewogen sind.

Ein weiteres Ziel des Prüflabors ist die Entwicklung von Lösungsansätzen für die Einteilung von Anwendungen in Risikoklassen. „Nicht alle KI-Systeme müssen die gleichen Anforderungen erfüllen“, sagte Schlesinger. Daher sollten entsprechende Systeme nach ihrem Gefährdungspotenzial reguliert werden. Die Anforderungen könnten von einem vollständigen Regulierungsverzicht über Transparenzpflichten und Zulassungsverfahren vor der Markteinführung bis zu einem Verbot besonders gefährlicher oder ethisch fragwürdiger KI-Anwendungen reichen.

In der Wirtschaft gibt es bereits eine breite Zustimmung für die Regulierung von KI. Laut einer repräsentativen TÜV-Studie sind 87 Prozent der Unternehmen ab 50 Mitarbeitern in Deutschland der Meinung, dass KI-Anwendungen in Abhängigkeit von ihrem Risiko reguliert werden sollten.

Sie möchten gerne weiterlesen?