KI_Experten

Auch mit künstlicher Intelligenz blieben ähnliche Prinzipien wirksam wie schon beim Data Mining, meint Christoph Schlueter Langdon, Entwicklungsleiter für Dateninnovation und Partner-On-Boarding beim Telekom Data Intelligence Hub von T-Systems. Ohne eine Hypothese über einen Zusammenhang zwischen Ursache und Wirkung brächten Fishing-Expeditionen wenig. „Die Statistik liefert nur Korrelationen, keine Kausalität. Ein Beispiel: Gesundheit und Wirtschaftsleistung sind positiv korreliert, aber wo soll der nächste Euro investiert werden: in Gesundheit oder Wirtschaftswachstum?“, erklärt Schlueter Langdon, der auch Professor für Data Science und Analytics an der Peter Drucker School of Management der Claremont Graduate University ist. Zuerst bedürfe es der Kausalität, die fast immer aus Theorie und Forschung komme. Gerade für den Einsatz von KI im Produktionsumfeld gelte es, Wirkungszusammenhänge wie physikalische Gesetzmäßigkeiten und dafür die Domainexpertise von Mitarbeitern einzubeziehen: Ohne „alte Hasen“, die ihr Sachwissen einbringen, scheitern KI-Vorhaben.

Es sei eine Illusion, dass ein Data-Scientists-Team automatisch erfolgreiche Modelle entwickeln könne, meint auch Bob De Caux, Vice President AI and RPA beim Businesssoftware-Anbieter IFS. „Das tiefe Geschäftsprozesswissen ist essenziell, das bleibt oft in der Kommunikation auf der Strecke. Häufig sind die AI-Teams isoliert und verfügen nicht über Domainwissen“, sagt Bob De Caux. Enttäuschungen sind vorprogrammiert. Wenn Unternehmen sich an das Thema KI und Machine Learning heranwagen, sollten sie auf einige Dinge besonders schauen: Wo im Prozess werden Entscheidungen getroffen und wo wäre eine Entscheidungsunterstützung hilfreich? Wo entstehen die größten Schwierigkeiten für die Mitarbeiter? „Es ist sehr wichtig, zuerst das Problem zu finden, das man lösen will – und dann zu überlegen, wie genau das Ergebnis aussehen soll. Was muss ich aus dem Datenmodell herausbekommen, um ein besseres Verständnis zu gewinnen: nur eine Zahl oder benötige ich weitere Informationen“, sagt Bob De Caux.

Wichtig beim Start ist, ein Problem auf eine Fragestellung zu konkretisieren, die man mit der Datenanalyse beantworten will. Dann geht es um die weitere Fokussierung durch Hypothesenbildung und Ableitung eines sogenannten Kausalmodells. „Wenn sich das Kausalmodell nicht auf einer Serviette skizzieren lässt, dann sollte man erst gar nicht weitermachen“, konstatiert Schlueter Langdon. Erst danach werden die richtigen Daten identifiziert, vorbereitet und schließlich analysiert. Ein weiterer eherner Grundsatz beim Einstieg in KI lautet: Alle Informationen zur Beantwortung der Frage müssen in den Daten enthalten sein, sonst droht GIGO (Garbage In, Garbage Out). „Kein Roheisen ohne Eisenerz im Gestein: Auch bei Daten muss vorher sichergestellt werden, dass daraus überhaupt Rückschlüsse auf das Problem möglich sind“, so der Data-Scien­ce-Experte. Zwar haben viele Unternehmen bereits Daten gesammelt, oft sind diese aber nicht im richtigen Format für KI-Analytics. „Data Storage und Data Cleaning sind absolut vital: Man muss die verschiedenen Datenquellen nicht nur zusammenbekommen, sondern auch in Ordnung bringen, bevor man mit AI startet“, sagt Bob De Caux. Künstliche Intelligenz sei nichts, das man einfach über bestehende Strukturen legen könne. „Es ist eine strategische Bewegung, für die nicht nur geklärt sein muss, welche Daten gesammelt werden sollen, sondern vor allem, mit welchem Ziel.“

Der Hype um Analytics und KI führt aus Sicht von Schlueter Langdon häufig dazu, dass Unternehmen mit überzogenen Erwartungen in Projekte gehen, während erfahrene Datenwissenschaftler deutlich zurückhaltender sind. „Gerade bei Neural Networks hängt die Güte der Ergebnisse fast ausschließlich von der Qualität der Trainingsdaten ab“, erklärt der Data-Science-Experte. So entscheidet beispielsweise in sogenannten Convolutional Neural Networks (CNN) unmittelbar die Güte der Beschriftung (Labeling) über eine erfolgreiche Analyse von Bildern. „Die Beschreibung der Trainingsdaten muss für jedes Objekt sehr granular sein“, stellt der Experte fest. Ein Einsatzszenario ist beispielsweise der Qualitätscheck, ob alle Bauteile richtig verbaut wurden. Dafür wird ein Teil per Video aufgenommen und der Algorithmus erkennt, ob alles ordnungsgemäß verschraubt ist. Alle Teile müssen hierfür eindeutig beschrieben sein. Auch aus Sicht des IFS-Spezialisten liegt eine der größten Herausforderungen in der Qualität der Trainingsdaten: Zum einen fehlten oft die Daten, die rund um einen Fehler entstehen – zum Beispiel Sensordaten aus Maschinen. Für KI-Datenmodelle ist aber das Lernen aus sämtlichen Daten besonders relevant, sowohl vor und natürlich auch während des Fehlers. Daten, die vor einem Fehler anfielen, werden allerdings häufig überschrieben oder nicht gespeichert.

Auch die Transparenz darüber, welche Daten in das Modell einfließen und es antreiben, ist in der KI deutlich niedriger als bei konventionellen Algorithmen. „Es ist schwer zu verstehen, wie Ergebnisse entstanden sind, die Algorithmen ähneln eher einer Blackbox. In manchen Bereichen ist die Transparenz jedoch sehr wichtig. Deshalb ist eine transparente Datenvorbereitung entscheidend, wenn man später versteckte Kosten vermeiden möchte“, sagt De Caux. Im Nachhinein Ergebnisse zu plausibilisieren und sich rückwärts durch die Daten zu graben, ist extrem aufwendig. De Caux rät, dennoch schon jetzt gezielt Daten für Probleme zu sammeln, die man gern irgendwann mit KI lösen möchte. Ziel des ERP-Herstellers ist es, Anwendern innerhalb des Systems Antworten auf Basis von Deep Learning auf neuronalen Netzen zu geben – ohne dass sich der User mit der unterliegenden Technologie befassen muss. Das gilt derzeit vor allem für komplexe Advanced-Planning-Prozesse. Auch hier gibt es noch viel Arbeit, die unterschiedlichen Datentypen zusammenzubringen, beispielsweise ERP-Daten in klassischen Datenbanksystemen mit Sensor-, Audio- und Videodaten.

Den ersten Teil des Spezials zum Thema künstliche Intelligenz finden Sie hier.

Bilder: Audi, BMW Illustrationen: Andreas Croonenbroeck