Animiertes Gehirn mit Datenströmen, daneben links die Logos von Kuka und BMW.

Um KI sinnvoll zu nutzen, muss die Datenqualität stimmen. (Bild: Canva/BMW/Kuka, Collage)

„Wir beschäftigen uns intensiv mit dem Einsatz von generativer KI in allen Business-Prozessen“, berichtet Michael Conrad, bei BMW verantwortlich für Artificial Intelligence, Process Intelligence und Process Automation, speziell für die Enterprise-IT-Umfänge. Dafür kommt neben Off-the-Shelf-Lösungen und hochspezialisierten Bespoke-Anwendungen für konkrete Use Cases auch seit einigen Monaten die Self-Service-Plattform BMW Group AI Assistant zum Einsatz. Sie steht allen Mitarbeitenden zur Verfügung, um KI in den Arbeitsalltag zu integrieren.

Darin kommen verschiedene Konnektoren zum Einsatz, um das Wissen aus unterschiedlichsten Quellen wie SharePoint, dem Group-Dokumentenmanagement-System sowie Confluence und Jira zu nutzen. Für die Integration lassen sich dann LowCode/NoCode-Tools verwenden, um auch individuelle Codes oder Logik in den KI-Prozess zu integrieren sowie Schnittstellen zu anderen IT-Systemen zu schaffen und zu nutzen. „Es ist ein echter Selbstservice, mit dem Mitarbeitende – auch ohne Programmierkenntnisse und ohne tiefe KI-Kenntnisse – KI-Apps und -Agenten konfigurieren und nutzen können – sowohl für den Eigengebrauch, als auch für eine allgemeine Nutzung innerhalb von BMW“, so Conrad.

Mit den Daten chatten

Die KI-Apps liegen in einem App Store. Zugleich wird ein Agenten-Register aufgebaut, um im Zeitalter von Agentic AI mit Multiagentensystemen die Übersicht zu bewahren und Wiederverwendbarkeit zu gewährleisten. Seit Ende letzten Jahres kommt generative KI auch für den BMW- und Mini-Assistenten zum Tragen, über den Kunden 24-7 fahrzeugrelevante Fragen stellen können, die von einem virtuellen Agenten beantwortet werden. „Das entlastet natürlich unsere traditionellen Kommunikationskanäle mit den Kunden und steigert die Kundenzufriedenheit, weil nicht extra angerufen oder lange nach den Informationen gesucht werden muss“, sagt Conrad.

„Wir beschäftigen uns schon seit vielen Jahren damit, die Unternehmensdaten leichter zugreifbar und nutzbar zu machen“, berichtet Claudia Diedering, bei BMW verantwortlich für das Thema Datenplattformen. Der Aufbau eines zentralen Data Lake in AWS vor rund fünf Jahren sei ein wichtiger Schritt gewesen, um die Daten an einem Ort für die verschiedenen Fachbereichsprozesse zu orchestrieren und zu kuratieren. „In den letzten zwei Jahren haben wir die Architektur vom reinen Data Lake in einer Partnerschaft mit Snowflake zu einem Data Lakehouse weiterentwickelt“, sagt Diedering.

„Durch GenAI befinden wir uns in einer Transformation mit einem enormen Potential, denn dank GenAI kann praktisch jede und jeder im Unternehmen in seiner natürlichen Sprache auf Daten zugreifen: mit sehr hohem Automatisierungspotential über sogenannte Agentensysteme“, konstatiert Claudia Diedering. Im ersten Schritt können Mitarbeitende heute über „Chat your Data“ in natürlicher Sprache Unternehmensdaten abfragen, beispielsweise die Ergebnisse des letzten Tages aus der Produktion.

Der Schlüssel liegt in den Meta-Daten

Erklärtes Ziel sei, die Technologie in die Breite zu bringen. „Dafür braucht es eine große Veränderung beim Thema Daten und Datenarchitektur. Die GenAI-Agenten können ausschließlich auf hoch-qualitativen Daten, die mit ebenso hoch-qualitativen Meta-Daten versehen sind, gute Ergebnisse liefern“, erläutert Diedering. Ein zentrales Thema sei daher der Aufbau einer BMW Group-Ontologie. „Erst indem wir den Daten mittels Metadaten Informationen dazu mitgeben, was sie genau bedeuten, und die Daten miteinander in Verbindung setzen, wird es für die KI möglich, diese Daten sinnvoll zu finden und aufzubereiten sowie Halluzinationen zu verringern oder zu vermeiden“, so die Expertin. Auch in SAP und im Microsoft Azure-Umfeld liegen Daten, die in der BMW Group-Ontologie zusammenkommen.

„Gerade bei der Datenarchitektur ist uns besonders wichtig, offene Formate zu verwenden – und dass die Anbieter offene Formate anbieten, damit wir die Daten Multicloud-übergreifend sehr leicht austauschen können“, konstatiert Michael Conrad. „Durch die logische Verbindung von Daten in einer Unternehmens-Ontologie werden wir in Zukunft die Möglichkeit haben, Daten wieder mehr zu dezentralisieren und sie einfach in der Quelle liegen zu lassen, statt sie an eine andere Stelle zu kopieren“, stellt Diedering auch fest. Das spare IT- und Cloud-Kosten.

Der OEM evaluiert laufend die GenAI-Lösungen am Markt, wie Microsoft Copilot oder SAP Joule. „Wir beobachten den Markt sehr intensiv, weil wir dort eine hohe Dynamik im KI-Umfeld sehen“, berichtet Conrad. Im Vordergrund stehe, eine höchstmögliche Flexibilität durch interne Kompetenzen, Eigenentwicklungen und Integrationen zu behalten, anstatt sich auf einen konkreten Technologie-Stack oder KI-Anbieter festzulegen. Aus BMW-Sicht hat sich diese Strategie bereits bewährt.

Roboter in einfacher Sprache anlernen

Auch Robotikhersteller Kuka befasst sich damit, eigene Wissenssysteme auf Basis von LLMs aufzubauen, um Informationen schneller bereitzustellen. „Der Kuka GPT macht das Wissen im Intranet leichter zugänglich für alle Mitarbeitenden. Unabhängig davon, in welcher Sprache der Content gepflegt ist, bekommt man immer in seiner Landessprache das entsprechende Feedback“, berichtet Christian Schwaiger, Technology Strategy Lead bei Kuka. Für die Robotikspezialisten haben LLMs nicht nur für Prozesse disruptives Potential, sondern auch für das Produkt: Sie sorgen dafür, dass Roboter in natürlicher Sprache in Betrieb genommen und angelernt werden können, ohne dass spezifische Kenntnisse in der Roboterprogrammierung notwendig sind. Dafür kommt auch bereits Agentic AI zum Einsatz.

Die Daten stammen aus unterschiedlichsten Datentöpfen. Bisher seien Informationen vor allem über klassische Dashboards aufbereitet worden, die Interpretation oblag dem Menschen. „GenAI verändert den Umgang mit Daten, weil ich jetzt über ein Werkzeug verfüge, das mir beim Interpretieren dieser Daten hilft: Das ist eine der größten Veränderungen“, konstatiert Christian Schwaiger. Es sei möglich, zu Informationen, die zum Beispiel in Form von Text, Audio oder Video vorliegen, Fragen zu stellen.

KI muss klar erkennbar sein

Durch LLMs würden die Datenlandschaft und die Datenarchitekturen bei Kuka erweitert, aber nicht grundlegend verändert, meint Schwaiger: „Wir haben bereits vor einigen Jahren angefangen, einen Data Lake mit einem entsprechenden Lakehouse-Ansatz aufzubauen, um aus historischen Daten zu lernen, etwa für Predictive Maintenance. Das Verarbeiten von unstrukturierten Informationen ist also für uns in der Datenlandschaft nichts Neues.“ Bei den Produkten rund um die Datenverarbeitung am Markt sei erkennbar, dass viele Anbieter ihren Funktionsumfang um LLMs erweitern und sich Funktionen zunehmend überschneiden. Wenn heute eine generative KI-Lösung gebaut werde, stehe ausgehend von einer Vektor-Datenbank immer eine Suche in den vektorisierten Daten dahinter: Der klassische Ansatz von Retrieval Augmented Generation (RAG), bei dem die Informationssammlung mit einem LLM kombiniert wird.

Um GenAI in den sicheren industriellen Einsatz zu überführen, müssen architektonisch einige Aspekte erfüllt werden. Bei Kuka setzt man darauf, im RAG-Ansatz das LLM mit eigenen Daten zu „grounden“, um Halluzinationen der KI weitestgehend zu vermeiden. Zudem kommt für jede Implementierung ein Baukasten mit Best Practices für den Bau einer sicheren KI-Lösung zum Einsatz. Eine Guidance hilft bei der Überprüfung, ob die Lösung eines Anbieters oder aus der eigenen Software-Entwicklung sicher ist. „Es ist entscheidend, dass alle – Softwareentwickler, Administratoren, User – die Risiken und die Stärken von KI kennen“, merkt der Kuka-Experte an.

Eine starke, aber schlanke Governance müsse sicherstellen, dass klar ist, wo welche Art von KI enthalten ist, wie sie funktioniert und zu ihrem Ergebnis kommt. Diese Aspekte fordere auch der EU AI Act. Kuka setzt auf ein durchgängiges Enterprise Architecture Management, in dem jede neue Software-Lösung, also auch jede KI-Anwendung, einen Prüf- und Freigabeprozess durchläuft. Zudem beschäftigt sich ein AI Council mit hochkritischen Cases.

Trend: Full-Stack-Plattformen

In den letzten Jahren hat sich der Markt rund um moderne Datenplattformen verändert. Im Zusammenspiel mit Large Language Models (LLMs) orientieren sich die Anbieter in Richtung Full-Stack-Plattformen. Data Warehouses und Data Lakes könnten dabei zunehmend mit Data-Lakehouse-Architekturen abgelöst werden, die mit Microsoft Fabric, Snowflake oder Databricks verfügbar sind. Auch Google BigQuery und AWS Redshift bewegen sich in diese Richtung.

Wiederverwendbarkeit ist Trumpf

„Mit Blick auf die Verwendung von Agentic AI sollte sichergestellt sein, dass es eine Wiederverwendung gibt: Agentensysteme haben den Vorteil, dass verschiedene Spezialfunktionen für unterschiedliche Anwendungsszenarien flexibel zusammengeschaltet werden können“, erklärt Schwaiger. Eine klare Governance sei auch für die Datenkonsistenz entscheidend: „Ich muss wissen, wo die Daten verwendet werden, ob die Daten akkurat sind, ob es sich um Kopien handelt oder um referenzierte Daten aus dem Quellsystem, mit denen ich interagiere.“

Die wichtigsten Aspekte seien also: Technologische Wiederverwendung, Datenwiederverwendung, sichere KI, aber auch ein sicherer Zugang zu den Daten. Ein KI-System dürfe nicht dazu führen, dass plötzlich Mitarbeitende an Daten kommen, auf die sie in den eigentlichen Systemen gar keinen Zugriff haben. „Die Berechtigungen des entsprechenden Users müssen sich natürlich in den Daten einerseits im jeweiligen System reflektieren, aber dann eben auch im Wissenssystem“, so Schwaiger.

 

Sie möchten gerne weiterlesen?