Christian Ott, Director Solution Engineering Global Automotive bei NetApp

Die Geschäftsmodelle für künstliche Intelligenz werden sich laut Christian Ott, Director Solution Engineering Global Automotive bei NetApp, mit der Zeit anpassen. Bild: NetApp

| von Fabian Pertschy

Welche Anwendungsfälle von KI müssen die Entscheider in der Autobranche kurz-, mittel- und langfristig adressieren?

Je schneller ein Unternehmen KI implementiert, desto wettbewerbsfähiger wird es. Projekte in den Feldern Predictive Maintenance, Fehlererkennung oder Qualitätssicherung lassen sich schnell aufsetzen. Die Cloud und vorgefertigte KI Module machen es möglich. Bei diesen Projekten ist das Ziel, die Fertigungsprozesse effizienter zu machen, wodurch ein schnellerer Return of Investment (ROI) möglich wird, hier sehen wir teilweise ROIs von unter einem Jahr. Die Herausforderung besteht darin, solche Projekte global skalierend und höchst effizient auszurollen, damit in Zeiten der Krise genug Kapital zur Sicherung des Unternehmensfortbestandes existiert. Kurz- bis mittelfristig geht es darum, mit Hilfe von KI bestehende Geschäftsmodelle wie das Advanced Driver Assistant Systems oder Infotainment-Systeme zu optimieren. Langfristig muss das Ziel sein, durch den Einsatz von KI neue Geschäftsfelder zu entwickeln. Das könnten maßgeschneiderte Versicherungen sein, die das Fahrverhalten berücksichtigen oder aber das Autonome Fahren und den damit verbundenen Wandel des Autos vom Fahrzeug zum Tech-Gadget. Generell steckt in den im Auto anfallenden Daten großes Umsatzvolumen, das sich sukzessive mit KI erschließen lässt. Wichtig dabei ist, dass nur eine langfristige, individuelle Strategie den erfolgreichen Einsatz von KI sichert.

Was muss die KI-Architektur leisten und welche Herausforderungen ergeben sich aus der notwendigen Datenpipeline?

Bei Autobauern und -zulieferern ergibt sich in der Regel das folgende Anforderungsprofil: anpassungsfähiges Design, ausfallsicherer Betrieb, Skalierbarkeit und offene Schnittstellen. Zwingend nötig ist eine einfache Integrierbarkeit in die bestehende Infrastruktur. Zudem darf die KI-Architektur nicht auf einen einzelnen Workload ausgerichtet sein, sie muss alle Projekte der langfristigen Strategie abdecken können. Der KI-Stack muss höchste Ansprüche an Security und Performance erfüllen. Ein Testwagen zum autonomen Fahren sammelt beispielsweise 5-20 Terrabyte an Daten pro Tag, die es zu verarbeiten gilt. Damit die Daten wie gewünscht fließen, gilt es die horizontale und die vertikale Tech-Integration zu meistern. Das meint zuerst den Aufbau der Daten-Pipeline, die den Datentransfer und KI-Berechnungen über verschiedene Endpunkte – Edge, Core und Cloud – hinweg realisiert. Danach folgt das vertikale Einbinden von anderen Umgebungen wie Open Source Software & Tools.

Inwiefern sind Unternehmen bei KI-Projekten auf öffentliche oder offene Infrastruktur angewiesen?

Das Ganze ist mehr als die Summe seiner Teile, lautet ein Aristoteles-Zitat, das auch ein KI-Projekt treffend beschreibt. Denn dieses gelingt nur mit dem systemischen Blick auf das Ganze. Die Basis für den Erfolg legt in der Forschungs- und Entwicklungsphase eine offene Infrastruktur, gehostet beim Cloud- oder Service-Provider. Das macht Sinn, weil das Verwenden von Open-Source-Tools und frei verfügbaren Datensätzen zu schnellen Ergebnissen inklusive Prototypen führt und Zugriff auf große Netzwerke verschafft. Bestehende Funktionen und Algorithmen aus diesen Quellen bilden zudem Kernkomponenten in der Entwicklung von KI-Anwendungen. Sobald eine KI-App aber das eigene Geschäftsmodell produktiv abbilden soll, übersteigen die Kosten der „Fremdinfrastruktur“ etwaige Investition in eigene Rechenzentren oder andere Infrastruktur wie Private Clouds. Öffentliche Förderung kann helfen, diese Investitionslast zu verringern und den Weg zum ROI zu verkürzen.

Der Eintrag "freemium_overlay_form_ait" existiert leider nicht.