„KI made in Germany beschleunigt die Autoindustrie“
KI verändert die Autoindustrie radikal: Christian Hort von T-Systems erklärt, warum Computing-Power zum Wettbewerbsfaktor wird, Entwicklungszeiten dank KI und Simulation auf unter zwei Jahre sinken – und weshalb souveräne, skalierbare Infrastruktur entscheidend ist.
Pascal NagelPascalNagelPascal NagelEditor in Chief
5 min
„Mit der Industrial AI Cloud in München richten wir uns gezielt an Branchen wie Automotive, Manufacturing und zunehmend auch Defense“, sagt Christian Hort von T-Systems.Marko Priske
Herr Hort, Sie kommen gerade von der CES in Las Vegas
zurück. Die Messe gilt längst nicht mehr nur als Consumer-Event, sondern als
Gradmesser für industrielle Digitalisierung – auch für die Automobilindustrie.
Welche Signale waren für Sie in diesem Jahr besonders prägend?
Die CES war auch in diesem Jahr sehr aufschlussreich.
Dominierendes Thema war ganz klar künstliche Intelligenz, allerdings weniger
abstrakt, sondern sehr konkret entlang der Frage: Woher kommt die
Rechenleistung, und wie lässt sich KI industriell skalieren? Die Dynamik im
Markt ist enorm. Die Aufholbewegung der Wettbewerber zum Marktführer Nvidia war
deutlich sichtbar und technologisch beeindruckend. Damit rückt die
Verfügbarkeit von Compute-Leistung noch stärker ins Zentrum. Ohne
leistungsfähige Rechner und eine hohe Datenqualität lässt sich KI weder in der
Industrie noch im Automotive-Bereich sinnvoll einsetzen. Gleichzeitig steht das
Thema Geschwindigkeit stark im Fokus. Durch die Kombination aus
leistungsfähigem Computing und moderner Simulationssoftware verkürzen sich
Entwicklungszyklen für Fahrzeuge massiv, teilweise von fünf oder sechs Jahren
auf unter zwei Jahre. Das verändert die Entwicklung von industriellen Produkten
grundlegend und ist besonders für uns in Europa ein entscheidender Wettbewerbsfaktor.
Auffällig war zudem, wie stark sich das Thema Konnektivität entwickelt hat. Die
Verbindung zwischen Fahrzeug, Mobile Device und Backend ist längst kein reines
Automotive-Thema mehr, sondern zieht sich durch viele Branchen – von autonomen
Systemen über Robotik bis hin zu Landwirtschaft und Mining. Entscheidend ist
dabei der professionelle Anspruch: Stabilität, Verfügbarkeit und schnelle
Software-Updates. Genau diese Anforderungen prägen inzwischen viele
industrielle Anwendungen.
Geschwindigkeit, Rechenleistung und KI – das sind große
Schlagworte. Sie adressieren das mit Ihrer Industrial AI Cloud. Was ist aus
Ihrer Sicht der entscheidende Unterschied zu klassischen Cloud-Angeboten?
Der zentrale Unterschied liegt in der klaren industriellen
Fokussierung. Mit der Industrial AI Cloud in München richten wir uns gezielt an
Branchen wie Automotive, Manufacturing und zunehmend auch Defense. Diese
Industrien haben sehr spezifische Anforderungen an Datensicherheit,
Souveränität und die Verfügbarkeit von Rechenleistung. Mit der neuesten
Generation der Nvidia-Chips RTX 6000 und B200 erhöhen wir die bislang in
Deutschland verfügbare KI-Rechenleistung um 50 Prozent. Das verbessert die
Verfügbarkeit signifikant. Entscheidend sind dabei nicht nur die Hardware,
sondern auch der Betrieb: Wir kombinieren diese Rechenleistung mit unserer
Erfahrung im Cloud-Management und der führenden Konnektivität der Deutschen
Telekom. Der Unterschied zu dem Angebot der Hyperscaler liegt vor allem in der
Transparenz und Kontrolle. Kunden wissen genau, wo ihre Daten liegen, wer
Zugriff hat und wie sie gemanagt werden. Gleichzeitig profitieren sie von
kurzen Latenzen und stabilen Turnaround-Zeiten; gerade bei Simulationen oder
der Entwicklung von ADAS-Algorithmen ist das ein wesentlicher Faktor. Und nicht
zuletzt sind wir sofort verfügbar: Ab diesem Februar stellen wir bereits 10.000
Nvidia-GPU-Chips bereit – und das alles aus Deutschland heraus.
Souveränität, Skalierbarkeit und Geschwindigkeit sind
hohe Anforderungen zur gleichen Zeit. Ist das nicht zwangsläufig ein
Zielkonflikt?
Das hängt stark von der Perspektive ab. Betrachtet man
Skalierbarkeit, ist klar, dass unbegrenzte regionale Skalierung aus
Souveränitätssicht nicht trivial ist. Entscheidend ist jedoch, dass wir aktuell
einen sehr großen Schritt bei der verfügbaren Rechenleistung machen. Wichtig
ist zudem, dass wir unser Angebot nicht ausschließlich auf dauerhaft verfügbare
Compute-Blöcke ausrichten, sondern auch auf sogenannte Burst-Leistungen. Das
heißt: Kunden können kurzfristige Rechenspitzen, etwa in bestimmten Simulationsphasen,
gezielt abrufen. Gerade diese unplanbaren Lasten sind in der Praxis
entscheidend. Mit unserer Infrastruktur und einer Konnektivität von bis zu 400
Gbit pro Sekunde können wir diese Anforderungen sehr gut abdecken. In großen
Teilen Deutschlands erreichen wir Latenzen von rund zwei Millisekunden. Das ist
für viele industrielle Anwendungen ein wesentlicher Faktor.
Viele KI-Modelle sind Open Source – wer KI einsetzen will, kommt daran nicht vorbei
Christian Hort, T-Systems
Blicken wir auf konkrete Anwendungen. Wo sehen Sie heute
realistische Use Cases für KI – etwa in Produktion, Qualitätssicherung oder
Logistik?
In den angesprochenen Bereichen gibt es maschinenbasiertes
Lernen und Bilderkennung bereits seit vielen Jahren, und das wird auch so
bleiben. Wirklich spannend wird es dort, wo ganze Datenräume miteinander
verbunden werden können. KI entfaltet ihre Stärke erst dann, wenn sie
qualitativ hochwertige Daten in großer Breite verarbeiten kann. Ein zentrales
Feld ist die Supply Chain. Dort geht es um Verfügbarkeiten, komplexe
Abhängigkeiten und kombinatorische Entscheidungsräume. Wenn diese durch KI
ausgewertet werden, lassen sich Lieferzeiten verkürzen und Prozesse
stabilisieren. Technologisch ist das möglich, die Rechenleistung ist vorhanden.
Entscheidend ist die Verfügbarkeit der Daten. Hier kommen Datenökosysteme wie
Catena-X ins Spiel. Ein aktuelles Beispiel ist unsere Zusammenarbeit mit SAP.
Viele SAP-Kunden sehen großes Potenzial darin, Daten von internationalen
Hyperscalern auf souveräne Systeme zu verlagern und dort KI-Anwendungen zu
betreiben, etwa über die SAP Business Technology Platform. Das ist aus meiner
Sicht ein sehr relevanter nächster Schritt, insbesondere für deutsche
Industrieunternehmen.
Datenverfügbarkeit gilt als eines der größten Hemmnisse
für KI-Projekte. Wie können Sie hier unterstützen?
Das lässt sich gut mit dem Zwiebelprinzip beschreiben.
Zunächst muss jedes Unternehmen seine internen Datenquellen sauber
zusammenführen und für KI nutzbar machen. Einige Unternehmen nutzen
Data-Space-Technologien zunächst intern, um ihre Daten strukturiert
bereitzustellen. Ist dieser Schritt gemacht, fällt es deutlich leichter, Daten
beispielsweise über Catena-X zu teilen. Wir verstehen uns hier als Enabler. Wir
schaffen die technischen und organisatorischen Voraussetzungen, damit
Unternehmen in kleinen, kontrollierten Schritten starten können, bevor sie sich
größeren Datenräumen öffnen. Große Themen wie Catena-X oder die Integration mit
SAP stehen damit logisch als nächste Entwicklungsschritte an.
Stichwort Catena-X: Welche zusätzlichen Anforderungen
ergeben sich daraus für KI-Plattformen sowie die Dateninfrastrukturen?
Die Anforderungen liegen weniger bei der Plattform selbst
als vielmehr bei der Anbindung und den Schnittstellen. Entscheidend ist aber
das Weiterdenken in den Unternehmen: Daten müssen gezielt für Partner
zugänglich gemacht werden, um gemeinsam Optimierungspotenziale zu heben. Wenn
KI in der Inferenz tatsächlich auf diese Datenräume zugreifen kann, entstehen
die großen Effekte. Voraussetzung dafür ist, dass diese Datenräume qualitativ
hochwertig befüllt sind. In einer Netzwerkökonomie gilt: Erst geben, dann
profitieren. Diese Logik kennen wir aus klassischen Kommunikationsnetzen und
sie gilt heute genauso für die Datenökonomie.
Partnerschaften spielen also eine zentrale Rolle. Wie
wichtig sind Allianzen für Sie, etwa mit Ansys?
Sie sind aus meiner Sicht äußerst wichtig.
Simulationsanbieter kennen ihre Märkte, ihre Kunden und deren Anforderungen
sehr genau. Die aktuell starke Resonanz auf die Kombination aus führender
Simulationssoftware und unserem souveränen Compute-Angebot zeigt, dass wir
richtig unterwegs sind. Ohne diese Partner würden wir weder die
Marktdurchdringung noch das tiefe Verständnis der Kundenprobleme erreichen.
Unsere Aufgabe ist es, diese Kombination technisch so umzusetzen, dass Kunden
etwa durch deutlich verkürzte Turnaround-Zeiten und höhere
Entwicklungsgeschwindigkeit schnell davon profitieren.
Auch Open Source gewinnt im Kontext des Software-Defined
Vehicle weiter an Bedeutung. Wie positionieren Sie sich hier?
Open Source ist bereits ein fester Bestandteil unserer
Strategie. Viele KI-Modelle sind Open Source – wer KI einsetzen will, kommt
daran nicht vorbei. Denn meistens greifen die KI-Modelle ja wiederum auf Open
Source zurück. Wir haben früh auf wiederverwendbare Softwarebausteine gesetzt
und diese Fähigkeit im Markt etabliert. Jetzt gehen wir mit unseren
Open-Source-Aktivitäten deutlich weiter. Seit drei Jahren engagieren wir uns im
Eclipse-SDV-Projekt und werden künftig größere Softwarebestandteile beitragen.
Gerade dieses aktive Kontribuieren ist entscheidend. Auf der CES haben wir dazu
auch eine Absichtserklärung unterzeichnet. Open Source ist ein zentraler
Bestandteil unserer SDV-Strategie und man wird hier künftig noch deutlich mehr
von uns sehen.
Zum Abschluss: Gibt es noch eine Botschaft, die Ihnen
besonders wichtig ist?
Eine Frage, die mir häufig gestellt wird, betrifft die
Zukunft der europäischen Autoindustrie im Softwarebereich. Mein Fazit ist klar:
Wir haben in Europa und in Deutschland Unternehmen, die in der Lage sind, KI
einzusetzen und gleichzeitig globale Entwicklungsmodelle erfolgreich
umzusetzen. Wir sind einer der wenigen verbliebenen Integratoren in
Deutschland, die diese Themen nachweislich hervorragend umsetzen. Auch mit
Blick auf die Partizipation in europäischen Förderprogrammen spielt die
Tatsache, dass wir in Deutschland ansässig sind eine zentrale Rolle: Viele
dieser Initiativen sind nur möglich, wenn man in Europa verankert ist. Das ist
auch ein bewusster Appell an die Branche: Trotz schwieriger Zeiten sind wir in
Europa und Deutschland leistungsfähig und wir sehen aktuell konkrete Erfolge
genau auf dieser Basis.
Zur Person:
Christian Hort verantwortet als Senior Vice President das
Segment Automotive und Manufacturing bei der T-Systems International GmbH. Zu
den Kunden gehören OEMs wie Daimler, Volkswagen, BMW, Stellantis sowie führende
Zulieferer, darunter Continental, Schaeffler und Bosch. Die ersten neun
Berufsjahre arbeitete Hort in verschiedenen Positionen in der Entwicklung, in
der Konzernstrategie sowie im Vertrieb beim Liechtensteiner
Befestigungsspezialisten Hilti AG. Danach wechselte der promovierte
Wirtschaftswissenschaftler in die Automobilzulieferindustrie zu Harman
International. Dort bekleidete er über neun Jahre verschiedene leitende
Funktionen im globalen Vertrieb. In seiner letzten Position verantwortete er
das divisionsübergreifende globale Geschäft von Harman für die Daimler AG als
General Manager.