In 2025 habe der Fokus auf vielen einzelnen Proof of
Concepts in einem großen KI-„Innovationstheater“ gelegen, resümiert Mark Roberts,
Head of AI Futures Lab bei Capgemini. Zwar habe man beeindruckende Ergebnisse
durch das Skalieren von KI-Modellen gesehen. Doch sei bereits eine Verschiebung
hin zu stärker hybriden KI-Systemen zu erkennen, bei denen große generative
Modelle mit stärker „geerdeten“ Modellen kombiniert werden – beispielsweise
klassischere KI- oder mathematische oder physikalische Modelle. „Wahrscheinlich
werden wir 2026 eher ein Jahr der KI-Integration als ein Jahr der KI-Innovation
sehen“, folgerte Roberts bei der Vorbesprechung der jährlichen IT-Trends-Studie „TechnoVision Top 5 Tech Trends to Watch
in 2026“.
„Auf das Datenthema kommt jetzt ein starker Zeitdruck, weil
die agentischen AI-Systeme nur auf konsistenten Daten sauber funktionieren. Die
Aufgabe für 2026 lautet also, die Daten deutlich schneller ‚besser‘ zu machen“, fasst es Dr.
Ulrich T. Wolters zusammen, Head of Product Area Semantic Stack bei Bosch. Für ihn
ist der zentrale Trend in 2026 die Überwindung des sogenannten
„Data-Growth-Paradox“. Einerseits würden sich Unternehmen von wachsenden
Datenmengen mehr Automatisierung und bessere Insights erhoffen, andererseits
erlebten sie stattdessen zunehmende Komplexität, höhere Kosten und Teams,
die mehr Zeit mit der Behebung von Datenproblemen verbringen als mit
Innovation. Die Lösung liegt aus Sicht von Bosch darin, ein semantisches
Datenfundament aufzubauen, das Daten mit Bedeutung, Kontext und Beziehungen
anreichert – statt weiter in punktuelle, zu teure Integrationen zu investieren.
Datensouveränität
wird wettbewerbsentscheidend
Das drängendste Thema dürfte in 2026 die Frage nach der
Datensouveränität sein. Dabei gibt es viele Grauzonen und nicht alle
Unternehmen sind bereit, sich den Konsequenzen zu stellen. Rechtsgutachten
zeigen immer wieder, dass es keine europäische Souveränität geben kann, wenn
US-Hyperscaler im Spiel sind. So bieten angesichts von Patriot Act, Cloud Act
und US AI Act auch für den europäischen Markt geschaffene Rechtskonstrukte keine
Garantie. Erst vor kurzem räumte etwa das baden-württembergische
Innenministerium ein, dass bei der von SAP gegründeten „souveränen“ Delos
Cloud, die Microsoft Azure und 365 nutzt, der Cloud-Anbieter auf Anweisung der
US-Regierung gezwungen sein könnte, Daten abzuziehen.
„Datensouveränität ist schon heute ein strategischer Faktor
– und in der Automobilbranche ein Überlebensfaktor. AI-Agenten greifen mitunter
auf das tiefste Produkt- und Prozesswissen zu. Wer also seine Daten nicht unter
Kontrolle hat, verliert morgen Innovations- und Wettbewerbshoheit“, bringt es Federico
Magno auf den Punkt, Group CEO der MHP Management- und IT-Beratung GmbH. Eine
komplette Abkopplung von Hyperscalern sei jedoch unrealistisch und auch nicht
sinnvoll, stattdessen gehe es um kontrollierte Abhängigkeit, bei der kritische
Daten kontrolliert souverän, der Rest skalierbar gehalten wird. „Die
Abhängigkeiten zu China oder den USA sind Realität – klar. Aber sie schließen
Souveränität nicht aus. Das bedeutet nicht mittelbar ‚Abschottung‘ im Sinne
völliger Autarkie, sondern Wahlfreiheit. Auf Infrastrukturebene ist
vollständige Unabhängigkeit heute ohnehin kaum erreichbar“, meint Magno.
Das größte Gefahrenpotenzial besteht dort, wo es um tiefes Entwicklungs-,
Produkt-, Fertigungs- und Innovationswissen geht: Die Bereiche, in denen
Unternehmen derzeit GenAI-Modelle trainieren, um ihr Wissen effizienter
verfügbar zu machen und Automatisierung voranzubringen. Im nächsten Schritt
geht es dabei um souveräne Wertschöpfungsnetzwerke, denn die großen Potenziale
lassen sich vor allem über die Unternehmensgrenzen hinaus heben: „Eigentlich bräuchten wir in Deutschland eine
Art offenes Open-Source-Engineering-Modell, das als Layer über den bestehenden
bekannten LLMs liegt und ‚deutsches Ingenieurswissen‘ mitbringt – durch viele
Unternehmen gemeinsam entwickelt“, sagte Roman Dumitrescu, Direktor am
Fraunhofer IEM (Institut für Entwurfstechnik Mechatronik). Hier stehe
Souveränität im Vordergrund.
Föderierte
semantische Datenmodelle schaffen
Derzeit beschäftigen sich bereits einige der großen Player
der Branche damit, wie sie ihre Daten auf Metaebene beschreiben können, um sie
übergreifend eindeutig für Mensch und KI versteh- und nutzbar zu machen. Das
ist umso wichtiger, wenn es um den Austausch von Daten entlang der Lieferkette,
für Nachhaltigkeit und digitale Zwillinge geht. Denn noch gibt es vielfach
ähnlich lautende Daten-Entitäten in unterschiedlichen Bereichen des
Unternehmens. Oft können fachabteilungsspezifische Daten nicht von anderen
Abteilungen genutzt werden, weil das Verständnis für deren Bedeutung fehlt.
Eine wesentliche Hürde bleibt dem Bosch-Experten zufolge die
Qualität der verfügbaren Daten, insbesondere bei Altdaten. Aus Sicht von
Wolters liegt der entscheidende Schritt darin, eine Entkopplungsebene zu
schaffen und auf ein föderiertes System zu setzen, das auf Standards wie
Catena-X und der International Digital Twin Association (ITDA) basiert. „Dass
Data als Asset genauso föderiert behandelt werden muss, wie es in der
Software-Entwicklung mit Bibliotheken oder APIs schon lange der Fall ist,
stellt eine ganz wesentliche Erkenntnis dar“, so Wolters. Statt als
Mammutprojekt sämtliche Daten zu beschreiben, könne so ein System geschaffen
werden, in dem Fachleute das jeweilige Fachproblem in der benötigten
Kleinteiligkeit der föderierten Aspektmodelle, beziehungsweise Submodelle der
ITDA, beschreiben können. Governance sei zentral, so sollte die
Software-Entwicklung diese Methodiken zur Beschreibung von Informationsmodellen
durchgängig nutzen.
Endlich Altdatenprobleme
lösen
„Wenn dieses Grundproblem gelöst ist, können viele
Domänenxperten aus den unterschiedlichsten Sichten mit der gleichen Methodik
integrierbare, konsumierbare Daten bereitstellen. Erst so wird die
Datenthematik operativ und vor allem skalierbar – angefangen bei einzelnen
Modellen bis hin zu Millionen von Produkten und Datengruppen“, konstatiert
Wolters. Datenontologien, semantische
Datenmodelle und die Beschreibung von „Kopfwissen“ zu Prozessen auf Detailebene
werden im Kontext von Agentic AI noch einmal wichtiger, da sie qualitativ
andere Anforderungen an Daten als bisherige KI-Anwendungen stellt. „Während
etwa Large Language Models primär auf große Textmengen trainiert werden,
benötigen AI-Agenten, die autonom in Produktionsumgebungen agieren sollen, semantisch
kodiertes Domänenwissen: Sie müssen verstehen, wie Engineering-Parameter,
Produktionschargen, Qualitätsdaten und Prozessschritte zusammenhängen – und das
über den gesamten Produktlebenszyklus“, berichtet der Experte. Zudem sei ein
robustes Verständnis der Wirkketten für die Orchestrierung der Agenten
untereinander erforderlich. Bosch bezeichnet das als „Manufacturing
Co-Intelligence“: Die Zusammenarbeit von menschlicher Expertise und
intelligenten AI-Agenten auf Basis semantisch strukturierter, maschinenlesbarer
Daten.
Trendwechsel bei
Infrastruktur
„Für große KI-Modelle
im autonomen Fahren und in Advanced Driver Assistance Systems investieren viele
Hersteller in eigene On-Premise-Rechenzentren“, sagt Pedro Pacheco, Vice
President of Research, Automotive & Smart Mobility bei Gartner. Der Trend
zu On-Premise-Supercomputern entstehe aus Gründen der Datensicherheit und
strategischen Kontrolle, zudem gehe es um langfristigen ROI mit Blick auf
Kosten für die Rechenleistung. Tesla sei hier das prominenteste Beispiel: 2024
seien rund 10 Milliarden Dollar in eigene Rechenkapazitäten investiert worden,
um KI-Modelle für Full Self-Driving zu trainieren. Auch Hyundai, Toyota und
andere große Hersteller gingen für den Schutz von geistigem Eigentum bereits in
diese Richtung. „Wenn KI geschäftskritisch wird, ist Skalierbarkeit über die
Cloud nicht mehr entscheidend – dann will man die Rechenleistung selbst
besitzen“, konstatiert Pacheco.
AI auch für
IT-Infrastruktur: AIOps
Die schnelle technologische Entwicklung und die zunehmende
Komplexität von IT-Landschaften machen einen Paradigmenwechsel von klassischen
DevOps-Praktiken hin zu weiterentwickelten Frameworks erforderlich, die
künstliche Intelligenz integrieren. Erste Untersuchungen zeigen, dass der
Einsatz von AIOps (Artificial Intelligence for IT Operations) deutliche
Verbesserungen der operativen Resilienz und geringere Ausfallzeiten bringen
kann. Zwar ist man an vielen Stellen mit der Industrialisierung der IT
beschäftigt, doch noch werden die Potenziale nicht ausgeschöpft. „AIOps für
IT-Operations sehe ich bislang nur begrenzt. Im Bereich Cybersecurity gibt es
hingegen bereits KI für automatisiertes Monitoring und Gegenmaßnahmen. Der
Fokus liegt bei OEMs und großen Zulieferern primär noch auf der Optimierung von
Geschäftsprozessen – nicht auf internen IT-Prozessen“, berichtet Pedro Pacheco
von Gartner.
Generative AI kann im bürokratisch geprägten Umfeld wie den
ITIL-Betriebsprozessen im IT Service Management zum Beispiel beim Incident-,
Request- und Knowledge-Management vieles vereinfachen, IT-Teams entlasten und
zu weitergehender Automatisierung und Umsetzung von „Self-Healing“-Mechanismen beitragen.
Dreh- und Angelpunkt ist allerdings die Frage nach der Sicherheit, wenn KI mit
mehr Kompetenzen im Infrastrukturmanagement ausgerüstet wird. „Im Jahr 2026
werden AI Ops und der Einsatz von GenAI in der IT-Infrastruktur für
Automobilunternehmen entscheidend sein. Da Fahrzeuge, Fabriken und Lieferketten
zunehmend softwaredefiniert und in Echtzeit gesteuert werden, benötigt die
Branche autonome, agentische Systeme, die Infrastruktur in hybriden und
Multicloud-Umgebungen überwachen, optimieren und selbstständig verbessern
können“, ist sich Simone Neser sicher, AI Taskforce Program Manager bei
Capgemini Business Services. Die Herausforderung bestehe darin, dass solche
Agenten nur dann zuverlässig funktionieren, wenn die Latenz gering ist,
Datenhoheit gewährleistet wird und die zugrunde liegende Cloud resilient ist.
Andernfalls könnten kleine Verzögerungen zu systemweiten Ausfällen führen. „AI
Ops geht daher weit über Effizienz hinaus und wird zu einer Fähigkeit für
Sicherheit und Geschäftskontinuität“, so Neser. Im nächsten Jahr könnte es mehr
Infrastrukturanbieter wie etwa noris network geben, die AIOps-Lösungen wie ServiceNow
lokal unter eigener Hoheit betreiben.
Mittelstandsthemen in
2026
Nicht alle in der Branche haben sich bereits auf die
disruptive neue KI-Technologie eingelassen. „Bei vielen mittelgroßen und
kleinen Zulieferern passiert im Bereich KI bislang nicht sehr viel. Generell
kann man sagen: Diese Unternehmen werden zwar neugierig auf KI, doch ihre
digitale Reife ist oft sehr niedrig“, stellt Pacheco fest. Um KI nicht nur
indirekt als Funktion in bestehenden Softwareprodukten zu nutzen, gelte es
jetzt jedoch, die technologische Basis rund um Software und Daten zu schaffen,
die oft jahrelang vernachlässigt wurde. Die gute Nachricht ist, dass es
mittlerweile deutlich einfacher geworden ist, auf den Zug aufzuspringen, sowohl
technologisch als auch beim Thema Daten. Künftig dürfte es mehr Anbieter für
LLM as a Service in souveränen Kontexten geben, auch MHP setzt in einer
Partnerschaft mit dem Infrastrukturanbieter Schwarz IT darauf. „Für den
Mittelstand entsteht daraus ein massiver Vorteil: Unternehmen können
leistungsfähige, industriell trainierte LLMs nutzen, ohne eigene Hardware oder
hochspezialisierte AI-Teams aufbauen zu müssen – und ohne, dass ihre Daten in
globale Clouds abfließen“, fasst es Frederico Magno zusammen.
Von der wertvollen Vorarbeit, die in Initiativen wie
Catena-X und der IDTA für die Interoperabilität geleistet wurde, könnten
insbesondere auch kleinere und mittelständische Zulieferer profitieren, meint auch
Ulrich Wolters. Auf dieser Basis sei ein
pragmatischer, überschaubarer Einstieg mit den Use Cases möglich, die den
größten Mehrwert bringen – wie ein datengetriebenes Qualitätsmanagement,
Rückverfolgbarkeit oder Compliance. „Kümmern Sie sich nur um die konkreten
Daten, die ihre Kunden von Ihnen brauchen und nutzen Sie die Werkzeuge vom
Datenökosystemen, damit Sie nicht dem Data Growth Paradox verfallen“, empfiehlt
Wolters.