28-29_SPEZ_Aufmacher_IMP
| von Christoph Hammerschmidt

Ohne die Steuerung aus zentralen PLM-Applikationen können die OEMs weder funktionale Sicherheit noch Upgradefähigkeit gewährleisten. Dafür brauchen die Systeme zum Teil erhebliche funktionale Erweiterungen. PLM-Daten müssen heute abteilungsübergreifend genutzt werden – speziell bei kontextbezogenen Sichten aber ist noch einiges zu tun. Entscheidend wird in den nächsten Jahren zudem sein, wie gut sich künstliche Intelligenz in die PLM-Landschaft integrieren lässt. Dann könnten nicht nur die Aktivitäten der User antizipiert werden, und Entwickler kämen mit dem Wissen aus vielen Projekten und Disziplinen auf völlig neue Lösungsansätze. Mithilfe selbstlernender Algorithmen ließe sich auch eine Vielzahl heute noch arbeitsintensiver Prozesse automatisieren.

Zerreißprobe

Digitale Services, Software zum Nachrüsten, Nachweispflichten bei funktionaler Sicherheit, autonomes Fahren – damit PLM das alles schaffen kann, muss sich einiges ändern.

Die Digitalisierung des Autos hinterlässt tiefe Spuren in der IT-Landschaft von OEMs und der gesamten Wertschöpfungskette. Eine zentrale Rolle spielt das Product Lifecycle Management. Das Angebot an neuen digitalen Diensten im und um das Auto herum ist ohne PLM kaum zu schaffen. Die Entwicklung solcher Services unterscheidet sich, so eine Analyse des Beratungsunternehmens Accenture, grundlegend vom bisherigen Engineering.

Die Integration von Hard- und Software­lebenszyklen erfordert ein integriertes Lifecycle Management – in dem Maße, wie das Produkt Auto durch Software definiert ist, verschmelzen Product Lifecycle Management und Application Lifecycle Management zu einem übergreifenden Systemansatz. Noch um die Jahrtausendwende bestanden die Produkte der Autoindustrie weitestgehend aus Mechanik, Elektrik und etwas Mechatronik. Software war durchaus vorhanden, aber sie lebte in den mechatronischen Komponenten und war von diesen nicht zu trennen.

Daran, dass Autos einmal „connected“ sein würden, dachten damals nur wenige. Und dass diese Datenverbindungen dereinst dazu genutzt werden könnten, Software ins Auto herunterzuladen und damit auch nach dem Verkauf die Konfiguration des Fahrzeugs zu ändern, glaubten seinerzeit allenfalls Visionäre. Außer Sichtweite war fast alles, was man heute ganz selbstverständlich unter dem Schlagwort „digital“ subsumiert: digitale Services, Software als Produkt oder automatisiertes Fahren mit all den neuen, damit verbundenen Aufgabenstellungen wie funktionale Sicherheit und Übernahme der Verantwortung für die Fahraktivitäten.

PLM, so war das einmal gedacht, sollte die Anwendungswelten von CAD, CAE, Produktionsplanung und Verkauf, Vertriebslogistik bis hin zum End-of-Life Management zusammenfassen und damit die erforderliche Transparenz für betriebliche Entscheidungen in einem zunehmend komplexen Umfeld schaffen.

Nun lautet die naheliegende Frage: Kann PLM als Konzept all die neuartigen digitalen Produkte, Services und Eigenschaften der Fahrzeuge überhaupt abdecken? Wäre es nicht vielleicht eher angebracht, nach einem Nachfolgekonzept zu suchen, eine Art Post-PLM? Ganz und gar nicht, sagt Ondrej Burkacky, PLM-Experte der Managementberatung McKinsey.

Er sieht es genau anders herum: „Wer diese digitalen Services auf den Markt bringen will, kommt um ein umfassendes PLM-Konzept gar nicht herum. Das Product Lifecycle Management eröffnet überhaupt erst die Möglichkeit, Fahrzeuge auch nach der Auslieferung mit zusätzlichen Diensten und Funktionen auszustatten.

Beim Aufsetzen digitaler Dienstleistungen seien die Fahrzeughersteller sogar im Vorteil gegenüber den rein digitalen Playern wie Google oder Amazon. Denn digitale Services benötigen zuerst einmal Daten – die des Kunden nämlich. Oder – im Falle des Autos als „Träger“, als Ankerpunkt dieser Dienste – die Daten des Fahrzeugs. „PLM ist die Voraussetzung dafür, dass man diese Daten über das Fahrzeug abrufbar hat – und vor allem, dass sie umfassend und aktuell sind.“ Wobei Letzteres aber durchaus eine Herausforderung sein könne, wie Burkacky anmerkt.

Schon jetzt hat das PLM-Konzept Probleme damit, die diversen und divergierenden Fachdisziplinen unter einen Hut zu bringen, bestätigt Amin Jbabli, ein PLM-Berater bei IBM. Er weist darauf hin, dass sich die einzelnen Domänen der Autotechnik – also Mechanik, Elektrik/Elektronik, Software – keineswegs im Gleichschritt entwickeln.

Während agile Softwareentwickler im Prinzip fast täglich eine neue Version ihres Programmcodes vorlegen und testen können, benötigt die „Metall-Fraktion“ – also die Entwickler von Karosserie, Fahrwerk oder Motoren – nach wie vor Monate für eine Iteration. Die Elektronik liegt mit ihren Entwicklungszyklen irgendwo dazwischen. Es ist naheliegend, dass diese unterschiedliche Geschwindigkeit in den Prozessen berücksichtigt werden muss.

Gleichzeitig steigen die Komplexität des Produkts und die Anforderungen an die funktionale Sicherheit. Durch die Anwendung der Sicherheitsnorm ISO 26 262 entstehen beispielsweise zusätzliche Nachweispflichten – was natürlich in die PLM-Prozesse und Datenbestände zu integrieren ist. Es wäre daher zumindest empfehlenswert, ein „Engineering Cockpit“ zu implementieren, in dem die relevanten Daten aus all diesen Domänen zusammengeführt und in übersichtlicher Weise vorgehalten werden.

Einen anderen Aspekt hebt Udo Lange hervor, PLM-Experte der Strategie- und Transformationsberatung Capgemini: Durch die Einführung digitaler Dienstleistungen und innovativer Geschäftsmodelle rund um das Fahrzeug wandelt sich der Charakter des Autos. Bisher handelte es sich um ein klar umrissenes Produkt. In Zukunft wird es nicht mehr so eindeutig bestimmbar sein, es wird Bestandteil eines Ökosystems, einer digitalen Servicekette.

„Das führt zu einer deutlich höheren Komplexität im PLM-Umfeld“, so Lange. Zu den bisherigen produktbeschreibenden Parametern kommen Variable wie Connectivity, Analytics und Backoffice Services hinzu. Auch Dienste, die von dritter Seite erbracht werden, müssen im PLM-System gespiegelt werden. „Sie müssen ja so ans Fahrzeug gekoppelt werden, dass ich mich als Hersteller damit differenzieren kann“, sagt der PLM-Experte.

Ähnlich verhält sich das mit nachgeladener oder per OTA-Update aktualisierter Fahrzeugsoftware. „Der OEM muss – schon aus Haftungsgründen – jederzeit nachvollziehen können, was in dem jeweiligen Fahrzeug vor sich geht.“ Wenn zum Beispiel ein Kunde nachträglich einen Tuning-Chip einbauen lässt, muss der OEM das erkennen und entsprechend behandeln. Das Werkzeug dafür ist das PLM-System.

Damit wird eines deutlich: Bestehende PLM-Systeme stehen für einen massiven Ausbau. McKinsey-Experte Burkacky beobachtet aktuell umfangreiche Investitionen der Autoindustrie in diesem Bereich. Größere Unternehmen müssen dafür schon einmal einen Betrag in dreistelliger Millionenhöhe veranschlagen.

Allerdings sollte man auf keinen Fall versuchen, sämtliche Legacy-Systeme mit ihren tief zerklüfteten Datenwelten in einem Big Bang durch ein neues System zu ersetzen. Ondrej Burkacky warnt: „Damit würde man den gesamten Datenkern, eigentlich sogar den IT-Kern des Unternehmens, austauschen. Das Risiko ist viel zu groß, dass dann das ganze Unternehmen stehenbleibt.“

PLM trifft KI

Große PLM-Anbieter halten sich bedeckt, wenn es um die Integration von künstlicher Intelligenz in ihre Anwendungen geht. Die Bandbreite möglicher Einsatzszenarien aber ist immens.

Eine Studie des Vereins Deutscher Ingenieure (VDI) im Frühjahr unter 900 Mitgliedern ergab, dass knapp 60 Prozent KI derzeit lediglich zur Analyse von Daten nutzen. Das zeigt deutlich, dass in Deutschland das Potenzial entsprechender Technologien noch nicht erkannt wurde. Auch im Umgang mit Artificial Intelligence für PLM-Systeme liegt der Fokus heute eher auf dem bereits von Big Data Analytics her bekannten Themenfeld.

In fünf Jahren wird jedoch laut den Umfrageergebnissen damit gerechnet, dass KI wesentlich intensiver – genauer gesagt: um den Faktor drei häufiger – genutzt wird. Allein der Einsatz von KI im Bereich „Dialog Mensch und Maschine“ steige von 5,6 Prozent auf 38 Prozent. VDI-Direktor Ralph Appel zufolge ist das ein klares Indiz für das hohe Potenzial von KI in industriellen Anwendungen.

„Welche Rolle KI perspektivisch für PLM-Systeme spielen kann, ist eine extrem spannende Frage“, sagt Marco Pötke, PDM-Bereichsleiter beim IT-Dienstleister Msg. Die steigende Komplexität der Produkte ist der Haupttreiber für den Einsatz von KI, glaubt Pötke. „Anforderungs-, Konfigurations- und Änderungsmanagement bleiben nur noch mit hoher Automatisierung beherrschbar.

Weil Fahrzeuge immer vernetzter werden, erweitern sich außerdem die Möglichkeiten im PLM. „IoT verlinkt als nächste Evolutionsstufe von PLM die Produkte draußen am Markt über den Digital Twin mit der Entwicklung“, meint der Msg-Experte. KI könnte auf Basis echter Nutzungsdaten den Entwicklern bei Nachfolgeprodukten auf die Finger klopfen, wenn sie zum Beispiel Funktionalität entwerfen, die später in den Märkten zu viele Servicevorfälle generiert oder von Kunden gar nicht angenommen wird.

Entsprechende Vorhersagen lassen sich mittels tiefer neuronaler Netze trainieren, indem man die heute bereits übliche Korrelationsanalyse zwischen Produktkonfigurationen und Gewährleistungsfällen auf sämtliche anonymisierten Nutzungsdaten ausdehnt. Die KI lernt auf diese Weise marktspezifische Eigenschaften wie Terrain- und Wetterbedingungen, die Prognose etwa von Gewährleistungskosten wird spezifischer und präziser.

Auch mit anderen KI-Methoden wie zum Beispiel Assoziationsanalysen kann viel erreicht werden. Ein Beispiel: Weil beim Änderungsmanagement oft Mitarbeiter aus verschiedenen Unternehmen an mehreren Standorten eingebunden sind, entstehen Fehler, etwa durch unvollständig ausgefüllte Änderungsanträge. Vielleicht wird übersehen, dass bei der Auswahl einer längeren Schraube auch weitere Bauteile angepasst werden müssen.

„Wir haben in einem Projekt 40 000 Änderungsanträge durch ein solches KI-System gejagt, das uns 2000 Regeln zurückgeliefert hat. Das ist die Grundlage, um automatische Vorschläge zu generieren, die dem Entwickler im Arbeitsprozess gemacht werden“, berichtet Marco Pötke. À la Amazon werde dem Bearbeiter dann gezeigt: „Mitarbeiter, die so einen Änderungskontext hatten, haben in der Regel auch diese zwei Teile geändert.“ Auch bei der Produktions- und Kapazitätsplanung sieht Pötke Bedarf, bisher extrem aufwendige Prozesse mit KI zu automatisieren.

Bei Siemens PLM sieht man das Thema KI mit Blick auf die künftige Bedienung der Software selbst. „KI hat die Möglichkeit, die PLM-Industrie zu revolutionieren. Die Fähigkeit vorauszusehen, was der Bediener als Nächstes tun möchte – oder besser: Dinge vorzuschlagen, die der Bediener bis dahin noch gar nicht berücksichtigt hat –, birgt das Potenzial, den Entwurfsprozess nicht nur viel schneller zu machen, sondern auch kostspielige Fehler zu vermeiden“, sagt Dave Lauzun, der bei Siemens PLM Software für die Branchen Automotive und Transportation zuständig ist.

Das größte Potenzial, mit Deep Learning mehr aus den Produktdaten zu lernen, liegt für ihn im Bereich vollständig autonomer Fahrzeuge. „Ein selbstlernendes System kann die Produktentwicklung deutlich beschleunigen – und verbessern, wenn bisherige Erfahrungen automatisch in künftige Entscheidungen einfließen und so doppelter Arbeitsaufwand verhindert wird“, glaubt Klaus Löckel von Dassault Systèmes.

Aus Daten­analysen und Simulationen lasse sich maximaler Nutzen ziehen. Löckel nennt als Beispiel die Verwertung von Daten von Predictive Maintenance in der Entwicklung. KI und Machine Learning sind seiner Auffassung nach „das neue Big Data“, wie es auch Autor Gil Press im 3DS-Blog von Dassault auf den Punkt bringt.

Deep Learning sieht Klaus Löckel vor allem als Mittel, um große Datenmengen auf Muster zu durchsuchen und beispielsweise zu erforschen, welche bereits konstruierten Bauteile wofür wiederverwendet werden können und welche neuen Produkte sich für welche Märkte eignen. „KI hat für uns große Bedeutung, denn wir schaffen die Voraussetzung dafür, dass sie erfolgreich eingesetzt werden kann: Dazu müssen sämtliche Daten auf einer zentralen Plattform zusammenfließen, um so als Grundlage für alle Entscheidungen zu dienen – für maschinelle wie für menschliche“, so Löckel.

Als eine Art Super-Assistent wird sich KI durch alle Entscheidungsprozesse ziehen und lästige Detailarbeit übernehmen, wenn es um das Verteilen von Daten geht, davon ist Dominik Rüchardt von PTC überzeugt. Das PLM-System werde zum Backbone für serviceorientierte Geschäftsmodelle, bei denen ein Produkt auch im Betrieb unter der Aufsicht des Herstellers bleibt, Stichwort Robotaxi und Carsharing.

KI trägt dazu bei, ein lernendes Simulationsmodell zu erzeugen, mit dem sich Produktänderungen verproben oder Varianten entwickeln und schnell testen lassen. „Das steigert die Entwicklungsgeschwindigkeit und senkt die Kosten für das Testen“, sagt Rüchardt. Beispielsweise habe das Elektromobilitäts-Startup e.Go durch geschickte Nutzung von Simulationsmodellen aus dem digitalen Zwilling seine Entwicklungszeit dramatisch verkürz

Der Kontext zählt

Der Weg, PLM-Daten allen Abteilungen im Unternehmen in einer Kontextsuche zur Verfügung zu stellen, ist steinig und schwer. Die Systemanbieter verfolgen unterschiedliche Ansätze.

Erst vor Kurzem gab PLM-Hersteller Contact Software bekannt, seine Plattform um eine Querschnittanwendung „universelle Klassifikation“ für das Master Data Management erweitern zu wollen. Damit könnten Unternehmensbereiche wie Vertrieb, Entwicklung, Fertigung und Service durch Merkmal- und Klassifikationsschemata einbezogen werden.

Produkt- und Projektdaten sollen sich in frei definierbaren Klassen gruppieren und mit spezifischen Eigenschaften beschreiben lassen. Dafür wird die Vererbung von Merkmalen entlang von Klassenhierarchien und die Mehrfachklassifizierung genutzt. Der Vorstoß zeigt, dass bisherige Ansätze, Produktdaten zu klassifizieren und für den Anwender leicht zugänglich zu machen, unter Druck geraten.

„Nicht die Klassifizierung selbst wird in Zeiten von IoT und Big Data wichtiger, sondern der Kontext. Jetzt geht es darum, Brücken zu bauen und die Kontexte der unterschiedlichen Abteilungen zu verbinden“, sagt Carolin Adelt vom IT-Dienstleister Cenit. Klassifizierung allein wirke nur auf Datenebene. Das reiche nicht aus, um zusätzlich Prozesse, Personen und Objekte zu orchestrieren.

„Um beispielsweise die Herstellbarkeit eines Produkts zu bewerten, ist eine Vielzahl an Objekten und Daten nötig. Ein Suchergebnis reicht nicht. Es braucht auch eine Verdichtung und Interpretation aus Sicht des jeweiligen Anwenders“, erklärt Carolin Adelt.

Diverse Suchanfragen, Anwendungsfälle, Anforderungen und Blickwinkel, die je nach Abteilung sehr unterschiedlich ausfallen können, sollen auf dieselbe Datenbasis zugreifen wie die Entwickler: Dafür müssen der Kontext und der Verbund der Objekte abgebildet werden.

Auch andere Systeme von SAP oder Dassault Systèmes zum Beispiel bedienten sich der Klassifizierung, doch das reiche nicht mehr im zunehmend heterogenen Umfeld, so die Expertin: „Die Hersteller gehen das Thema Querschnittfunktion verstärkt an.“ PLM-Hersteller setzen derzeit stark auf lokale Optimierung.

Ein Beispiel ist das Product Lifecycle Costing, das stark abgestimmt ist auf Mitarbeiter, die die Kalkulation machen. In anderen Bereichen unterstützen Apps bei konkreten Aufgaben. „Das sind alles positive Ansätze. Aber die lokale Ebene reicht nicht aus. In der globalen Sicht muss künftig alles auf allen Ebenen miteinander verbunden sein, um die Wiederverwendung von Daten, Konsolidierung und Synergien möglich zu machen“, sagt Carolin Adelt. Das sei teilweise noch ein weiter Weg.

Anbieter wie SAP sieht sie im Vorteil, weil sie von Haus aus die Verbindung zwischen den Geschäftsprozessen im ERP und im PLM herstellen. Der größte Roadblock ist das Fachpersonal. In der Realisierung braucht man hochspezialisiertes PLM-Domänenwissen, gepaart mit Methodenknowhow. Deshalb sind viele Ansätze noch generisch, von schlüsselfertigen Lösungen ist man noch weit entfernt.

Bilder: Audi, BMW, Continental, e.Go Mobile, Unit, Siemens

Illustration: Sabina Vogel