Paradigmenwechsel im kommenden Jahr?

Die Daten- und KI-Trends 2026

Unternehmen benötigen jetzt föderierte, semantische Datenmodelle und müssen klar unterscheiden, welche Daten sensibel sind. Souveränität ist Voraussetzung für agentische KI. In 2026 werden die Hausaufgaben beim Thema Daten für mittelständische Unternehmen überfällig.

6 min
Auch 2026 wird künstliche Intelligenz im Fokus stehen.

In 2025 habe der Fokus auf vielen einzelnen Proof of Concepts in einem großen KI-„Innovationstheater“ gelegen, resümiert Mark Roberts, Head of AI Futures Lab bei Capgemini. Zwar habe man beeindruckende Ergebnisse durch das Skalieren von KI-Modellen gesehen. Doch sei bereits eine Verschiebung hin zu stärker hybriden KI-Systemen zu erkennen, bei denen große generative Modelle mit stärker „geerdeten“ Modellen kombiniert werden – beispielsweise klassischere KI- oder mathematische oder physikalische Modelle. „Wahrscheinlich werden wir 2026 eher ein Jahr der KI-Integration als ein Jahr der KI-Innovation sehen“, folgerte Roberts bei der Vorbesprechung der jährlichen IT-Trends-Studie „TechnoVision Top 5 Tech Trends to Watch in 2026“.

„Auf das Datenthema kommt jetzt ein starker Zeitdruck, weil die agentischen AI-Systeme nur auf konsistenten Daten sauber funktionieren. Die Aufgabe für 2026 lautet also, die Daten deutlich schneller ‚besser‘ zu machen“, fasst es Dr. Ulrich T. Wolters zusammen, Head of Product Area Semantic Stack bei Bosch. Für ihn ist der zentrale Trend in 2026 die Überwindung des sogenannten „Data-Growth-Paradox“. Einerseits würden sich Unternehmen von wachsenden Datenmengen mehr Automatisierung und bessere Insights erhoffen, andererseits erlebten sie stattdessen zunehmende Komplexität, höhere Kosten und Teams, die mehr Zeit mit der Behebung von Datenproblemen verbringen als mit Innovation. Die Lösung liegt aus Sicht von Bosch darin, ein semantisches Datenfundament aufzubauen, das Daten mit Bedeutung, Kontext und Beziehungen anreichert – statt weiter in punktuelle, zu teure Integrationen zu investieren.

Datensouveränität wird wettbewerbsentscheidend

Das drängendste Thema dürfte in 2026 die Frage nach der Datensouveränität sein. Dabei gibt es viele Grauzonen und nicht alle Unternehmen sind bereit, sich den Konsequenzen zu stellen. Rechtsgutachten zeigen immer wieder, dass es keine europäische Souveränität geben kann, wenn US-Hyperscaler im Spiel sind. So bieten angesichts von Patriot Act, Cloud Act und US AI Act auch für den europäischen Markt geschaffene Rechtskonstrukte keine Garantie. Erst vor kurzem räumte etwa das baden-württembergische Innenministerium ein, dass bei der von SAP gegründeten „souveränen“ Delos Cloud, die Microsoft Azure und 365 nutzt, der Cloud-Anbieter auf Anweisung der US-Regierung gezwungen sein könnte, Daten abzuziehen.

„Datensouveränität ist schon heute ein strategischer Faktor – und in der Automobilbranche ein Überlebensfaktor. AI-Agenten greifen mitunter auf das tiefste Produkt- und Prozesswissen zu. Wer also seine Daten nicht unter Kontrolle hat, verliert morgen Innovations- und Wettbewerbshoheit“, bringt es Federico Magno auf den Punkt, Group CEO der MHP Management- und IT-Beratung GmbH. Eine komplette Abkopplung von Hyperscalern sei jedoch unrealistisch und auch nicht sinnvoll, stattdessen gehe es um kontrollierte Abhängigkeit, bei der kritische Daten kontrolliert souverän, der Rest skalierbar gehalten wird. „Die Abhängigkeiten zu China oder den USA sind Realität – klar. Aber sie schließen Souveränität nicht aus. Das bedeutet nicht mittelbar ‚Abschottung‘ im Sinne völliger Autarkie, sondern Wahlfreiheit. Auf Infrastrukturebene ist vollständige Unabhängigkeit heute ohnehin kaum erreichbar“, meint Magno.

Das größte Gefahrenpotenzial besteht dort, wo es um tiefes Entwicklungs-, Produkt-, Fertigungs- und Innovationswissen geht: Die Bereiche, in denen Unternehmen derzeit GenAI-Modelle trainieren, um ihr Wissen effizienter verfügbar zu machen und Automatisierung voranzubringen. Im nächsten Schritt geht es dabei um souveräne Wertschöpfungsnetzwerke, denn die großen Potenziale lassen sich vor allem über die Unternehmensgrenzen hinaus heben: „Eigentlich bräuchten wir in Deutschland eine Art offenes Open-Source-Engineering-Modell, das als Layer über den bestehenden bekannten LLMs liegt und ‚deutsches Ingenieurswissen‘ mitbringt – durch viele Unternehmen gemeinsam entwickelt“, sagte Roman Dumitrescu, Direktor am Fraunhofer IEM (Institut für Entwurfstechnik Mechatronik). Hier stehe Souveränität im Vordergrund.

Föderierte semantische Datenmodelle schaffen

Derzeit beschäftigen sich bereits einige der großen Player der Branche damit, wie sie ihre Daten auf Metaebene beschreiben können, um sie übergreifend eindeutig für Mensch und KI versteh- und nutzbar zu machen. Das ist umso wichtiger, wenn es um den Austausch von Daten entlang der Lieferkette, für Nachhaltigkeit und digitale Zwillinge geht. Denn noch gibt es vielfach ähnlich lautende Daten-Entitäten in unterschiedlichen Bereichen des Unternehmens. Oft können fachabteilungsspezifische Daten nicht von anderen Abteilungen genutzt werden, weil das Verständnis für deren Bedeutung fehlt.

Eine wesentliche Hürde bleibt dem Bosch-Experten zufolge die Qualität der verfügbaren Daten, insbesondere bei Altdaten. Aus Sicht von Wolters liegt der entscheidende Schritt darin, eine Entkopplungsebene zu schaffen und auf ein föderiertes System zu setzen, das auf Standards wie Catena-X und der International Digital Twin Association (ITDA) basiert. „Dass Data als Asset genauso föderiert behandelt werden muss, wie es in der Software-Entwicklung mit Bibliotheken oder APIs schon lange der Fall ist, stellt eine ganz wesentliche Erkenntnis dar“, so Wolters. Statt als Mammutprojekt sämtliche Daten zu beschreiben, könne so ein System geschaffen werden, in dem Fachleute das jeweilige Fachproblem in der benötigten Kleinteiligkeit der föderierten Aspektmodelle, beziehungsweise Submodelle der ITDA, beschreiben können. Governance sei zentral, so sollte die Software-Entwicklung diese Methodiken zur Beschreibung von Informationsmodellen durchgängig nutzen.

Endlich Altdatenprobleme lösen

„Wenn dieses Grundproblem gelöst ist, können viele Domänenxperten aus den unterschiedlichsten Sichten mit der gleichen Methodik integrierbare, konsumierbare Daten bereitstellen. Erst so wird die Datenthematik operativ und vor allem skalierbar – angefangen bei einzelnen Modellen bis hin zu Millionen von Produkten und Datengruppen“, konstatiert Wolters. Datenontologien, semantische Datenmodelle und die Beschreibung von „Kopfwissen“ zu Prozessen auf Detailebene werden im Kontext von Agentic AI noch einmal wichtiger, da sie qualitativ andere Anforderungen an Daten als bisherige KI-Anwendungen stellt. „Während etwa Large Language Models primär auf große Textmengen trainiert werden, benötigen AI-Agenten, die autonom in Produktionsumgebungen agieren sollen, semantisch kodiertes Domänenwissen: Sie müssen verstehen, wie Engineering-Parameter, Produktionschargen, Qualitätsdaten und Prozessschritte zusammenhängen – und das über den gesamten Produktlebenszyklus“, berichtet der Experte. Zudem sei ein robustes Verständnis der Wirkketten für die Orchestrierung der Agenten untereinander erforderlich. Bosch bezeichnet das als „Manufacturing Co-Intelligence“: Die Zusammenarbeit von menschlicher Expertise und intelligenten AI-Agenten auf Basis semantisch strukturierter, maschinenlesbarer Daten.

Trendwechsel bei Infrastruktur

 „Für große KI-Modelle im autonomen Fahren und in Advanced Driver Assistance Systems investieren viele Hersteller in eigene On-Premise-Rechenzentren“, sagt Pedro Pacheco, Vice President of Research, Automotive & Smart Mobility bei Gartner. Der Trend zu On-Premise-Supercomputern entstehe aus Gründen der Datensicherheit und strategischen Kontrolle, zudem gehe es um langfristigen ROI mit Blick auf Kosten für die Rechenleistung. Tesla sei hier das prominenteste Beispiel: 2024 seien rund 10 Milliarden Dollar in eigene Rechenkapazitäten investiert worden, um KI-Modelle für Full Self-Driving zu trainieren. Auch Hyundai, Toyota und andere große Hersteller gingen für den Schutz von geistigem Eigentum bereits in diese Richtung. „Wenn KI geschäftskritisch wird, ist Skalierbarkeit über die Cloud nicht mehr entscheidend – dann will man die Rechenleistung selbst besitzen“, konstatiert Pacheco.

AI auch für IT-Infrastruktur: AIOps

Die schnelle technologische Entwicklung und die zunehmende Komplexität von IT-Landschaften machen einen Paradigmenwechsel von klassischen DevOps-Praktiken hin zu weiterentwickelten Frameworks erforderlich, die künstliche Intelligenz integrieren. Erste Untersuchungen zeigen, dass der Einsatz von AIOps (Artificial Intelligence for IT Operations) deutliche Verbesserungen der operativen Resilienz und geringere Ausfallzeiten bringen kann. Zwar ist man an vielen Stellen mit der Industrialisierung der IT beschäftigt, doch noch werden die Potenziale nicht ausgeschöpft. „AIOps für IT-Operations sehe ich bislang nur begrenzt. Im Bereich Cybersecurity gibt es hingegen bereits KI für automatisiertes Monitoring und Gegenmaßnahmen. Der Fokus liegt bei OEMs und großen Zulieferern primär noch auf der Optimierung von Geschäftsprozessen – nicht auf internen IT-Prozessen“, berichtet Pedro Pacheco von Gartner.

Generative AI kann im bürokratisch geprägten Umfeld wie den ITIL-Betriebsprozessen im IT Service Management zum Beispiel beim Incident-, Request- und Knowledge-Management vieles vereinfachen, IT-Teams entlasten und zu weitergehender Automatisierung und Umsetzung von „Self-Healing“-Mechanismen beitragen. Dreh- und Angelpunkt ist allerdings die Frage nach der Sicherheit, wenn KI mit mehr Kompetenzen im Infrastrukturmanagement ausgerüstet wird. „Im Jahr 2026 werden AI Ops und der Einsatz von GenAI in der IT-Infrastruktur für Automobilunternehmen entscheidend sein. Da Fahrzeuge, Fabriken und Lieferketten zunehmend softwaredefiniert und in Echtzeit gesteuert werden, benötigt die Branche autonome, agentische Systeme, die Infrastruktur in hybriden und Multicloud-Umgebungen überwachen, optimieren und selbstständig verbessern können“, ist sich Simone Neser sicher, AI Taskforce Program Manager bei Capgemini Business Services. Die Herausforderung bestehe darin, dass solche Agenten nur dann zuverlässig funktionieren, wenn die Latenz gering ist, Datenhoheit gewährleistet wird und die zugrunde liegende Cloud resilient ist. Andernfalls könnten kleine Verzögerungen zu systemweiten Ausfällen führen. „AI Ops geht daher weit über Effizienz hinaus und wird zu einer Fähigkeit für Sicherheit und Geschäftskontinuität“, so Neser. Im nächsten Jahr könnte es mehr Infrastrukturanbieter wie etwa noris network geben, die AIOps-Lösungen wie ServiceNow lokal unter eigener Hoheit betreiben.

Mittelstandsthemen in 2026

Nicht alle in der Branche haben sich bereits auf die disruptive neue KI-Technologie eingelassen. „Bei vielen mittelgroßen und kleinen Zulieferern passiert im Bereich KI bislang nicht sehr viel. Generell kann man sagen: Diese Unternehmen werden zwar neugierig auf KI, doch ihre digitale Reife ist oft sehr niedrig“, stellt Pacheco fest. Um KI nicht nur indirekt als Funktion in bestehenden Softwareprodukten zu nutzen, gelte es jetzt jedoch, die technologische Basis rund um Software und Daten zu schaffen, die oft jahrelang vernachlässigt wurde. Die gute Nachricht ist, dass es mittlerweile deutlich einfacher geworden ist, auf den Zug aufzuspringen, sowohl technologisch als auch beim Thema Daten. Künftig dürfte es mehr Anbieter für LLM as a Service in souveränen Kontexten geben, auch MHP setzt in einer Partnerschaft mit dem Infrastrukturanbieter Schwarz IT darauf. „Für den Mittelstand entsteht daraus ein massiver Vorteil: Unternehmen können leistungsfähige, industriell trainierte LLMs nutzen, ohne eigene Hardware oder hochspezialisierte AI-Teams aufbauen zu müssen – und ohne, dass ihre Daten in globale Clouds abfließen“, fasst es Frederico Magno zusammen.

Von der wertvollen Vorarbeit, die in Initiativen wie Catena-X und der IDTA für die Interoperabilität geleistet wurde, könnten insbesondere auch kleinere und mittelständische Zulieferer profitieren, meint auch Ulrich Wolters. Auf dieser Basis sei ein pragmatischer, überschaubarer Einstieg mit den Use Cases möglich, die den größten Mehrwert bringen – wie ein datengetriebenes Qualitätsmanagement, Rückverfolgbarkeit oder Compliance. „Kümmern Sie sich nur um die konkreten Daten, die ihre Kunden von Ihnen brauchen und nutzen Sie die Werkzeuge vom Datenökosystemen, damit Sie nicht dem Data Growth Paradox verfallen“, empfiehlt Wolters.