Roboter im Audi-Werk fertigen ein Fahrzeug Audi eTron.

In der Produktion fallen mittlerweile Unmengen von Daten an. Bild: Audi

| von Harald Weiss

Laut einer Umfrage des Digitalverbandes Bitkom setzen 60 Prozent aller Unternehmen in Deutschland Big-Data-Technologien ein. Auch die Autohersteller und großen Zulieferer nutzen diese Technologie in vielen Bereichen. Das hat zu tiefgreifenden Veränderungen geführt: Zum Beispiel wurde die Fahrzeugsicherheit durch kognitives Internet of Things verbessert, die Reparaturkosten wurden gesenkt oder die Verfügbarkeit durch prädiktive Analysen erhöht.

Belastungsgrenzen bei Big Data

Trotz dieser Erfolge aber steckt der effiziente und effektive Umgang mit sehr großen Datenmengen noch immer in den Kinderschuhen. Todd Wright, Head of Data Management Solutions beim Business-Intelligence-Softwarespezialisten SAS, bringt es auf den Punkt: „Die Hoffnungen, die einst an Big Data geknüpft wurden, lassen sich nicht mit mehr Daten oder mehr Datenquellen erfüllen, sondern nur mit entsprechend besseren, also komplexeren Analysemodellen.“

Hinzu kommen technische Beschränkungen, denn Big-Data-Plattformen wie Splunk, Cloudera, MongoDB oder Elastic können herkömmliche Infrastrukturen schnell an die Grenzen ihrer Leistungsfähigkeit und Skalierbarkeit bringen. Die erforderlichen Bare-Metal-Bereitstellungen können daher zu einem wahren Management-Albtraum werden. Deshalb haben Unternehmen wie Nutanix und Dell spezielle leistungsstarke und virtualisierte Infrastrukturen entwickelt.

Hauptgrund für neue Investitionen

Die Analytics-Entwicklung fokussiert sich heute auf bestimmte Einsatzspektren, die ständig erweitert werden können. Eine herausragende Position nehmen Prognosemodelle in nahezu allen Unternehmensbereichen ein. Beim Fahrzeug kann die Kundenzufriedenheit durch eine vorausschauende Wartung verbessert werden, im Vertrieb kommen immer mehr Bedarfsprognosen zum Einsatz, in der Finanzierung geht es um eine bessere Einschätzung des Ausfallrisikos und in der Produktion sorgen immer komplexere Analytics in Verbindung mit KI und ML für ein Plus an Qualität, geringere Kosten und weniger Standzeiten.

Um diese verschiedenen Analytics-Ansätze besser zu differenzieren, haben sich bereits neue Begriffe etabliert. IBM spricht neuerdings von „Prescriptive Analytics“. „Während Predictive Analytics beispielsweise dazu dienen, die Motive für eine Kaufentscheidung zu verstehen, um darauf aufbauend eine Bedarfsprognose abzugeben, optimieren Prescriptive Analytics die Produktionsplanung, die Lagerbestände und die Supply Chain, indem sie ganz konkrete Aktionspläne erstellen. Erreicht wird das durch eine Kombination aus mathematischen Algorithmen, Machine Learning und künstlicher Intelligenz im Rahmen einer präskriptiven Analyselösung“, heißt es in einer Definitionsbeschreibung.

Ein weiterer neuer Begriff ist „Augmented Analytics“: Darunter versteht man die integrierte Automatisierung von Analytics, KI und ML. Eine Augmented Analytics Engine durchsucht alle Unternehmensdaten, um sie vollautomatisch zu analysieren. Gartner meint, dass Augmented Analytics derzeit der Hauptgrund für neue Investitionen bei den Analytics sind.

In-Memory als Megatrend

Bei so vielen Analysemöglichkeiten gibt es auch keinen Mangel an interessanten Use Cases. So berichtet Google von einer Anwendung im Bereich Händlerbetreuung, bei der Incentives nicht nur zum größten Kostenblock gehören, sondern auch hochkomplex sind. Ursache dafür sind die vielen Rabatte, Boni, Aktionspreise sowie kundenspezifischen Sonderkonditionen. „Mit Google Cloud können die Incentives so optimiert werden, dass OEMs und Händler diese kritischen Kosten kontrollieren können. Hier kommt BigQuery zum Einsatz, womit Incentives präzise und konsistent verfolgt werden können“, schreibt Dominik Wee, Managing Director Manufacturing and Transportation bei der Google-Cloud-Plattform (GCP) in einem Blog.

Zu BigQuery gehört auch eine spezielle In-Memory BI-Engine, mit der sich umfangreiche und komplexe Datasets sehr schnell interaktiv analysieren lassen. In-Memory gilt bei vielen Analysten als Megatrend. „Die Probleme bei der Verwendung von In-Memory-Computing werden aufgrund neuer Innovationen in der Speichertechnologie immer geringer. Gleichzeitig fallen die Preise für In-Memory, damit setzen sich auch immer mehr Realtime- oder Near-Realtime-Analytics durch“, heißt es in einem Bericht von Analytics Insight.

Verstärkte Cloudnutzung

Eine weitere technologische Entwicklung wird sich nach Ansicht vieler Analysten schon in nächster Zeit durchsetzen. „Spreadsheets haben in der Vergangenheit maßgeblich dazu beigetragen, dass die Datenkompetenz vieler Mitarbeiter deutlich gesteigert wurde, heute aber haben die Datenanalysen eine Komplexität erreicht, die die Möglichkeiten von Tabellenkalkulationen bei Weitem übertreffen“, sagt Gartner-Analystin Rita Sallam. Die Lösung seien die neuen Graph Analytics.

„Graph Analytics und Graph Databases ermöglichen eine Datenexploration genau so, wie die meisten Menschen denken. Sie enthüllen Beziehungen zwischen logischen Konzepten und Entitäten wie Organisationen, Personen und Transaktionen“, erläutert Sallam die Funktion. Bei den Anbietern von komplexen Analytics nimmt Google eine Sonderstellung ein, denn kaum ein anderes Unternehmen setzt selbst so massiv auf die Nutzung von Big Data, KI und ML. All diese Tools stehen dem Markt zum größten Teil zur Verfügung.

Viele davon sind sowohl auf der Google-Cloud-Plattform GCP als auch on-premises nutzbar. Doch es zeichnet sich ein Trend zur verstärkten Cloudnutzung ab, was sicher auch an neuen Performancewerten liegt. Und: Analytics wird zunehmend komplett an Spezialanbieter outgesourct, die zwar selbst nicht sonderlich bekannt sind, aber große Namen als Kunden vorweisen können. Am bekanntesten sind Future Processing (VW), Data Reply (Fiat, Audi), ISoftStone (Honda, Volvo, Peugeot), DBI (Kia, Hyundai), Pythian (Toyota), Mayato (BMW, VW) und QBurst (Peugeot, MB).

Unterbereich der allgemeinen Analytics

Neben neuen Einsatzfeldern und Technologien gibt es auch bemerkenswerte Trends bei der Organisation von Analytics. „Die KI- und Analytics-Teams werden zu einer einzigen Einheit verschmelzen und einen zentralen Bereich Datenorganisation schaffen“, meint Haoyuan Li, CTO beim Analytics-Startup Alluxio.

Eugene Roytburg, Managing Partner bei Fractal Analytics, stimmt dem zu: „Die Teams werden zusammengelegt, denn sie nutzen dieselben Daten und sind denselben businessrelevanten Ergebnissen verpflichtet. Doch es wird sich eine Hierarchie bilden, bei der die Analytics-Experten die Führung übernehmen – das entspricht der Logik, wonach KI ein Unterbereich der allgemeinen Analytics ist“, lautet die Einschätzung des Experten.

Sorry, item "freemium_overlay_form_ait" does not exist.