Erium-CEo Theo Steininger.

Die Standardisierung von Smart Production zählt zu den Herausforderungen beim Einsatz von KI. Bild: Erium

Künstliche Intelligenz ist ein Trendthema in der Automobilindustrie. Wo sind KI-Systeme bereits in der Breite angekommen und welche Anwendungsfelder sind noch Zukunftsmusik?

Aktuell sind Smart Manufacturing und die Ausstattung von Fahrzeugen mit künstlicher Intelligenz durch entsprechende Services relevant. Bei Ersterem sprechen wir vom KI-Einsatz in der Fahrzeugproduktion. Dabei liegt der Vorteil in der Automatisierung repetitiver Aufgaben. Hier zählt beispielsweise die visuelle Inspektion zu einem klassischen Use Case, den Hersteller relativ günstig von der Stange kaufen können. Die Ausstattung der Anlagen mit Advanced Analytics für die Anomalieerkennung, Predictive Maintenance und Predictive Quality ist auf dem Weg zur Standardisierung. Wenn Unternehmen bereit sind, mehr Budget in die Hand zu nehmen, ist das kein Problem mehr. Zu den eher individuellen Anwendungsfällen gehört die Unterstützung der Fertigung durch KI – unter anderem durch die Berechnung von Fertigungsparametern. Bei der Ausstattung von Fahrzeugen mit KI sind wir noch nicht ganz so weit – siehe autonomes Fahren. Bis Level fünf – also die vollständige Autonomie – erreicht wird, ist es noch ein weiter Weg. Besser sieht es dagegen beim Thema Mobility-as-a-Service aus: Mit Machine Learning lässt sich heute schon gut vorhersagen, wann und wo in einem Ballungsgebiet Fahrzeuge benötigt werden.

Was sind aktuelle Herausforderungen bei der Implementierung und wie können sie gelöst werden?

Hier gibt es tatsächlich noch viele Herausforderungen, die gelöst werden müssen. Erstens die Standardisierung von Smart Production: Das Rad immer wieder neu zu erfinden, ist teuer. Wenn ein Use Case an einem Standort erfolgreich umgesetzt und dessen Wirtschaftlichkeit bewiesen wurde, ist es jedoch vergleichsweise einfach, den Rollout auszuweiten. Zweitens die Datenverfügbarkeit: Die bisher verfügbaren Daten wurden in der Regel zur Steuerung und Regelung der Produktionsanlagen über speicherprogrammierbare Steuerungen gesammelt. In der Konsequenz braucht es für den Einsatz von KI oder Machine Learning (ML) neue Daten, beispielsweise mit einer höheren Auflösung, obwohl man eigentlich angenommen hat, alle für den Use Case relevanten Daten schon zu haben. Dies ist neben dem rein technischen Aufwand vor allem vom Erwartungsmanagement her ein Problem. Drittens die Zusammenarbeit der Fachbereiche: KI- und ML-Projekte betreffen viele Fachbereiche wie Projekt-Management, Data Scientists, Anwender, Domänenexperten, IT, Legal, Einkauf. Darüber hinaus ist ein agiles Projektvorgehen nötig. Beides ist eine Herausforderung für das kundenseitige Projektmanagement, das in der Regel derart interdisziplinäre und agile Projekte nicht gewohnt ist. Viertens die Regulatorik: Hat eine KI-Lösung Einfluss auf sicherheitskritische Prozesse, unterliegt diese strengen regulatorischen Vorgaben. Entscheidend ist hierbei eine Überprüfbarkeit der Zuverlässigkeit der ML-Lösung sowie die Erklärbarkeit der Ergebnisse. White-Box-Ansätze gewährleisten dabei die notwendige Transparenz.

Zu den Risiken des Machine Learnings zählen sogenannte Artefakte. Worum handelt es sich hierbei und wie lassen sie sich verhindern?

Dabei handelt es sich um sporadisches, erratisches Verhalten des Algorithmus. In vielen Fällen lässt sich ML als intelligente und komplexe Interpolation von Datenpunkten interpretieren. Gleichzeitig sind diese Datenpunkte jedoch nie perfekt und unterliegen Rauschen und Verunreinigungen. Daraus ergeben sich zwei Problemfelder: Overfitting und Extrapolation. Overfitting ist insofern problematisch, weil das Modell hierbei die eigene Genauigkeit überschätzt. Die Ursache dafür kann beispielsweise darin liegen, dass das Modell das in den Trainingsdaten vorkommende Rauschen zu ernst genommen hat. Dies tritt insbesondere dann auf, wenn ein System mit zu vielen Daten trainiert wird, die sich selbst zu sehr ähneln. Kommt ein solches System dann in der Praxis zum Einsatz, ist unvorhersehbares Verhalten vorprogrammiert. Füttert man ein Modell mit Daten, die hinsichtlich ihres Wertebereiches so nicht in den Trainingsdaten verfügbar waren, zwingt man das Modell zur Extrapolation. Generell gilt: Je mehr Freiheitsgrade ein Modell hat, um die Trainingsdaten zu erklären, desto unvorhersehbarer ist das Verhalten außerhalb des bekannten Bereichs. Die Lösung: Modelle sorgsam und mit Blick auf den jeweiligen Anwendungsfall aufbauen. Hier unterstützen Whiteboxing-Modelle in Form von Bayes'schen/kausalen Netzen, die auch physikalische Informationen des modellierten Use Cases enthalten. Damit wird eine stabile Extrapolation ermöglicht und Overfitting vermieden, da das Modell – sofern detailliert ausgearbeitet – Rauschen als solches erkennt.

Zur Person:

Theo Steininger ist Experte für KI-Anwendungen und Machine Learning in komplexen Prozessen mit kleinen Datensätzen. Als promovierter Astrophysiker hat er bereits während seiner Zeit an der Technischen Universität München und am Max-Planck-Institut für Astrophysik viel Erfahrung mit Statistik und künstlicher Intelligenz gesammelt. Heute ist er als CEO bei Erium tätig und wendet sein Wissen in der Industrie an, um Unsicherheiten in der Fertigung und im Forecasting zu reduzieren.

Kostenlose Registrierung

Newsletter
Bleiben Sie stets zu allen wichtigen Themen und Trends informiert.
Das Passwort muss mindestens acht Zeichen lang sein.

Ich habe die AGB, die Hinweise zum Widerrufsrecht und zum Datenschutz gelesen und akzeptiere diese.

*) Pflichtfeld

Sie sind bereits registriert?