Christian Hort, T-Systems

„KI made in Germany beschleunigt die Autoindustrie“

KI verändert die Autoindustrie radikal: Christian Hort von T-Systems erklärt, warum Computing-Power zum Wettbewerbsfaktor wird, Entwicklungszeiten dank KI und Simulation auf unter zwei Jahre sinken – und weshalb souveräne, skalierbare Infrastruktur entscheidend ist.

5 min
Christian Hort von T-Systems auf einer Kongressbühne
„Mit der Industrial AI Cloud in München richten wir uns gezielt an Branchen wie Automotive, Manufacturing und zunehmend auch Defense“, sagt Christian Hort von T-Systems.

Herr Hort, Sie kommen gerade von der CES in Las Vegas zurück. Die Messe gilt längst nicht mehr nur als Consumer-Event, sondern als Gradmesser für industrielle Digitalisierung – auch für die Automobilindustrie. Welche Signale waren für Sie in diesem Jahr besonders prägend?

Die CES war auch in diesem Jahr sehr aufschlussreich. Dominierendes Thema war ganz klar künstliche Intelligenz, allerdings weniger abstrakt, sondern sehr konkret entlang der Frage: Woher kommt die Rechenleistung, und wie lässt sich KI industriell skalieren? Die Dynamik im Markt ist enorm. Die Aufholbewegung der Wettbewerber zum Marktführer Nvidia war deutlich sichtbar und technologisch beeindruckend. Damit rückt die Verfügbarkeit von Compute-Leistung noch stärker ins Zentrum. Ohne leistungsfähige Rechner und eine hohe Datenqualität lässt sich KI weder in der Industrie noch im Automotive-Bereich sinnvoll einsetzen. Gleichzeitig steht das Thema Geschwindigkeit stark im Fokus. Durch die Kombination aus leistungsfähigem Computing und moderner Simulationssoftware verkürzen sich Entwicklungszyklen für Fahrzeuge massiv, teilweise von fünf oder sechs Jahren auf unter zwei Jahre. Das verändert die Entwicklung von industriellen Produkten grundlegend und ist besonders für uns in Europa ein entscheidender Wettbewerbsfaktor. Auffällig war zudem, wie stark sich das Thema Konnektivität entwickelt hat. Die Verbindung zwischen Fahrzeug, Mobile Device und Backend ist längst kein reines Automotive-Thema mehr, sondern zieht sich durch viele Branchen – von autonomen Systemen über Robotik bis hin zu Landwirtschaft und Mining. Entscheidend ist dabei der professionelle Anspruch: Stabilität, Verfügbarkeit und schnelle Software-Updates. Genau diese Anforderungen prägen inzwischen viele industrielle Anwendungen.

Geschwindigkeit, Rechenleistung und KI – das sind große Schlagworte. Sie adressieren das mit Ihrer Industrial AI Cloud. Was ist aus Ihrer Sicht der entscheidende Unterschied zu klassischen Cloud-Angeboten?

Der zentrale Unterschied liegt in der klaren industriellen Fokussierung. Mit der Industrial AI Cloud in München richten wir uns gezielt an Branchen wie Automotive, Manufacturing und zunehmend auch Defense. Diese Industrien haben sehr spezifische Anforderungen an Datensicherheit, Souveränität und die Verfügbarkeit von Rechenleistung. Mit der neuesten Generation der Nvidia-Chips RTX 6000 und B200 erhöhen wir die bislang in Deutschland verfügbare KI-Rechenleistung um 50 Prozent. Das verbessert die Verfügbarkeit signifikant. Entscheidend sind dabei nicht nur die Hardware, sondern auch der Betrieb: Wir kombinieren diese Rechenleistung mit unserer Erfahrung im Cloud-Management und der führenden Konnektivität der Deutschen Telekom. Der Unterschied zu dem Angebot der Hyperscaler liegt vor allem in der Transparenz und Kon­trolle. Kunden wissen genau, wo ihre Daten liegen, wer Zugriff hat und wie sie gemanagt werden. Gleichzeitig profitieren sie von kurzen Latenzen und stabilen Turnaround-Zeiten; gerade bei Simulationen oder der Entwicklung von ADAS-Algorithmen ist das ein wesentlicher Faktor. Und nicht zuletzt sind wir sofort verfügbar: Ab diesem Februar stellen wir bereits 10.000 Nvidia-GPU-Chips bereit – und das alles aus Deutschland heraus.

Souveränität, Skalierbarkeit und Geschwindigkeit sind hohe Anforderungen zur gleichen Zeit. Ist das nicht zwangsläufig ein Zielkonflikt?

Das hängt stark von der Perspektive ab. Betrachtet man Skalierbarkeit, ist klar, dass unbegrenzte regionale Skalierung aus Souveränitätssicht nicht trivial ist. Entscheidend ist jedoch, dass wir aktuell einen sehr großen Schritt bei der verfügbaren Rechenleistung machen. Wichtig ist zudem, dass wir unser Angebot nicht ausschließlich auf dauerhaft verfügbare Compute-Blöcke ausrichten, sondern auch auf sogenannte Burst-Leistungen. Das heißt: Kunden können kurzfristige Rechenspitzen, etwa in bestimmten Simulationsphasen, gezielt abrufen. Gerade diese unplanbaren Lasten sind in der Praxis entscheidend. Mit unserer Infrastruktur und einer Konnektivität von bis zu 400 Gbit pro Sekunde können wir diese Anforderungen sehr gut abdecken. In großen Teilen Deutschlands erreichen wir Latenzen von rund zwei Millisekunden. Das ist für viele industrielle Anwendungen ein wesentlicher Faktor.

Viele KI-Modelle sind Open Source – wer KI einsetzen will, kommt daran nicht vorbei

Christian Hort, T-Systems

Blicken wir auf konkrete Anwendungen. Wo sehen Sie heute realistische Use Cases für KI – etwa in Produktion, Qualitätssicherung oder Logistik?

In den angesprochenen Bereichen gibt es maschinenbasiertes Lernen und Bilderkennung bereits seit vielen Jahren, und das wird auch so bleiben. Wirklich spannend wird es dort, wo ganze Datenräume miteinander verbunden werden können. KI entfaltet ihre Stärke erst dann, wenn sie qualitativ hochwertige Daten in großer Breite verarbeiten kann. Ein zentrales Feld ist die Supply Chain. Dort geht es um Verfügbarkeiten, komplexe Abhängigkeiten und kombinatorische Entscheidungsräume. Wenn diese durch KI ausgewertet werden, lassen sich Lieferzeiten verkürzen und Prozesse stabilisieren. Technologisch ist das möglich, die Rechenleistung ist vorhanden. Entscheidend ist die Verfügbarkeit der Daten. Hier kommen Datenökosysteme wie Catena-X ins Spiel. Ein aktuelles Beispiel ist unsere Zusammenarbeit mit SAP. Viele SAP-Kunden sehen großes Potenzial darin, Daten von internationalen Hyperscalern auf souveräne Systeme zu verlagern und dort KI-Anwendungen zu betreiben, etwa über die SAP Business Technology Platform. Das ist aus meiner Sicht ein sehr relevanter nächster Schritt, insbesondere für deutsche Industrieunternehmen.

Datenverfügbarkeit gilt als eines der größten Hemmnisse für KI-Projekte. Wie können Sie hier unterstützen?

Das lässt sich gut mit dem Zwiebelprinzip beschreiben. Zunächst muss jedes Unternehmen seine internen Datenquellen sauber zusammenführen und für KI nutzbar machen. Einige Unternehmen nutzen Data-Space-Technologien zunächst intern, um ihre Daten strukturiert bereitzustellen. Ist dieser Schritt gemacht, fällt es deutlich leichter, Daten beispielsweise über Catena-X zu teilen. Wir verstehen uns hier als Enabler. Wir schaffen die technischen und organisatorischen Voraussetzungen, damit Unternehmen in kleinen, kontrollierten Schritten starten können, bevor sie sich größeren Datenräumen öffnen. Große Themen wie Catena-X oder die Integration mit SAP stehen damit logisch als nächste Entwicklungsschritte an.

Stichwort Catena-X: Welche zusätzlichen Anforderungen ergeben sich daraus für KI-Plattformen sowie die Dateninfrastrukturen?

Die Anforderungen liegen weniger bei der Plattform selbst als vielmehr bei der Anbindung und den Schnittstellen. Entscheidend ist aber das Weiterdenken in den Unternehmen: Daten müssen gezielt für Partner zugänglich gemacht werden, um gemeinsam Optimierungspotenziale zu heben. Wenn KI in der Inferenz tatsächlich auf diese Datenräume zugreifen kann, entstehen die großen Effekte. Voraussetzung dafür ist, dass diese Datenräume qualitativ hochwertig befüllt sind. In einer Netzwerkökonomie gilt: Erst geben, dann profitieren. Diese Logik kennen wir aus klassischen Kommunikationsnetzen und sie gilt heute genauso für die Datenökonomie.

Partnerschaften spielen also eine zentrale Rolle. Wie wichtig sind Allianzen für Sie, etwa mit Ansys?

Sie sind aus meiner Sicht äußerst wichtig. Simulationsanbieter kennen ihre Märkte, ihre Kunden und deren Anforderungen sehr genau. Die aktuell starke Resonanz auf die Kombination aus führender Simulationssoftware und unserem souveränen Compute-Angebot zeigt, dass wir richtig unterwegs sind. Ohne diese Partner würden wir weder die Marktdurchdringung noch das tiefe Verständnis der Kundenprobleme erreichen. Unsere Aufgabe ist es, diese Kombination technisch so umzusetzen, dass Kunden etwa durch deutlich verkürzte Turnaround-Zeiten und höhere Entwicklungsgeschwindigkeit schnell davon profitieren.

Auch Open Source gewinnt im Kontext des Software-Defined Vehicle weiter an Bedeutung. Wie positionieren Sie sich hier?

Open Source ist bereits ein fester Bestandteil unserer Strategie. Viele KI-Modelle sind Open Source – wer KI einsetzen will, kommt daran nicht vorbei. Denn meistens greifen die KI-Modelle ja wiederum auf Open Source zurück. Wir haben früh auf wiederverwendbare Softwarebausteine gesetzt und diese Fähigkeit im Markt etabliert. Jetzt gehen wir mit unseren Open-Source-Aktivitäten deutlich weiter. Seit drei Jahren engagieren wir uns im Eclipse-SDV-Projekt und werden künftig größere Softwarebestandteile beitragen. Gerade dieses aktive Kontribuieren ist entscheidend. Auf der CES haben wir dazu auch eine Absichtserklärung unterzeichnet. Open Source ist ein zentraler Bestandteil unserer SDV-Strategie und man wird hier künftig noch deutlich mehr von uns sehen.

Zum Abschluss: Gibt es noch eine Botschaft, die Ihnen besonders wichtig ist?

Eine Frage, die mir häufig gestellt wird, betrifft die Zukunft der europäischen Autoindustrie im Softwarebereich. Mein Fazit ist klar: Wir haben in Europa und in Deutschland Unternehmen, die in der Lage sind, KI einzusetzen und gleichzeitig globale Entwicklungsmodelle erfolgreich umzusetzen. Wir sind einer der wenigen verbliebenen Integratoren in Deutschland, die diese Themen nachweislich hervorragend umsetzen. Auch mit Blick auf die Partizipation in europäischen Förderprogrammen spielt die Tatsache, dass wir in Deutschland ansässig sind eine zentrale Rolle: Viele dieser Initiativen sind nur möglich, wenn man in Europa verankert ist. Das ist auch ein bewusster Appell an die Branche: Trotz schwieriger Zeiten sind wir in Europa und Deutschland leistungsfähig und wir sehen aktuell konkrete Erfolge genau auf dieser Basis.

Zur Person:

Christian Hort verantwortet als Senior Vice President das Segment Automotive und Manufacturing bei der T-Systems International GmbH. Zu den Kunden gehören OEMs wie Daimler, Volkswagen, BMW, Stellantis sowie führende Zulieferer, darunter Continental, Schaeffler und Bosch. Die ersten neun Berufsjahre arbeitete Hort in verschiedenen Positionen in der Entwicklung, in der Konzernstrategie sowie im Vertrieb beim Liechtensteiner Befestigungsspezialisten Hilti AG. Danach wechselte der promovierte Wirtschaftswissenschaftler in die Automobilzulieferindustrie zu Harman International. Dort bekleidete er über neun Jahre verschiedene leitende Funktionen im globalen Vertrieb. In seiner letzten Position verantwortete er das divisionsübergreifende globale Geschäft von Harman für die Daimler AG als General Manager.

Dieser Beitrag wird präsentiert von: