Die Cloud boomt – und zwar in allen Branchen und bei sämtlichen Unternehmensgrößen. Doch die Vorgehensweisen und Nutzungsmodelle unterscheiden sich dabei stark. „Die OEMs verfolgen verschiedene Cloudstrategien für sehr differenzierte Einsatzzwecke“, sagen die Analysten von Forrester. Vor allem die Entwickler würden cloudbasierte Infrastrukturen bevorzugen. „Die OEMs haben sich ehrgeizige Ziele bei der Entwicklung neuer Elektrodesigns gesetzt – jetzt suchen sie nach Möglichkeiten, den Zeit- und Kostenaufwand zu reduzieren“, heißt es in einem Forrester-Bericht.
Eine einzige Cloud für alle Aufgaben gibt es nicht, deshalb drängen immer mehr Nischenanbieter in den Markt. Eka ist ein solcher Provider, der eine spezielle Cloud für E-Sourcing und das Managen von direkten Material- und Rohstofflieferketten betreibt. Ein anderes Beispiel ist Plato, eine Engineering-Plattform, die sich speziell an solche Automobilunternehmen richtet, die die normativen Anforderungen des FMEA-Standards des Automobilverbandes VDA und der US-amerikanischen Automotive Industry Action Group (AIAG) erfüllen müssen.
Warum die Multi-Cloud ihre Tücken hat
„Ein gemeinsamer Trend in der Automobilbranche ist die zunehmende Nutzung von Multi-Cloud“, bestätigen die Forrester-Analysten. Doch Multi-Cloud hat seine Tücken, denn die Komplexität dieser Umgebungen steigt exponentiell mit der Zahl der genutzten Plattformen. Eine IDC-Untersuchung besagt, dass die Unternehmen in der EMEA-Region ihre IT-Kosten um bis zu 26 Prozent reduzieren könnten, wenn sie alle Möglichkeiten des Cloudmanagements ausnutzen würden. „Das einfache Managen heterogener Cloudumgebungen ist noch nicht zur allgemeinen Zufriedenheit gelöst“, bestätigt auch Ulrich Homann, Corporate Vice President & Distinguished Architect bei Microsoft.
Ein Schritt in diese Richtung ist Azure Arc. Dabei handelt es sich um ein Werkzeug für das Cross-Plattform-Management, mit dem sich die gesamte IT-Infrastruktur von der Edge über On-Premises bis hin zu verschiedenen Multi-Cloud-Umgebungen verwalten und steuern lässt. Das umfasst auch Linux-Server und VMware-Umgebungen sowie auf Kubernetes basierende Containerumgebungen. Und das nicht nur für die Azure Cloud, sondern auch für AWS und GCP.
Kostenkontrolle und Datenschutz müssen beachtet werden
Aber nicht nur ein schlechtes Cloudmanagement führt zu überhöhten Kosten. Auch viele andere Faktoren treiben diese in die Höhe. Dabei ist vor allem die Anpassung nach unten das größte Problem. „Viele User geben gebuchte Instances nach der Nutzung nicht zurück; vor allem Entwickler neigen dazu, immer die leistungsfähigsten Instances anzumieten und sie dann viel zu lange zu behalten“, sagt Stephen Minton, Program Vice President bei IDC. Laut Gartner betrug der daraus resultierende „cloud waste“ im vorigen Jahr bereits 14,1 Milliarden Dollar, für dieses Jahr werden 21 Milliarden Dollar prognostiziert. Diesem Problem widmet sich inzwischen die FinOps Foundation. Sie will das Problembewusstsein für eine gründliche Cloudkostenkontrolle erweitern und darüber hinaus neue Standards definieren. Über 1.200 Firmen sind bereits Mitglied, darunter nicht nur die großen Anwender, sondern auch viele Provider.
„Wenn es darum geht, große Mengen an Daten zu speichern und zu verarbeiten, sind wir in Europa aufgeschmissen“ – ZF-Konzernchef Wolf-Henning Scheider
Nach dem US-Cloud Act können US-Behörden ohne richterlichen Beschluss auf alle Daten zugreifen, die bei US-Providern gespeichert sind – und zwar auch dann, wenn sich diese in europäischen Rechenzentren befinden. Auch das Privacy-Shield-Abkommen ist laut dem Europäischen Gerichtshof unwirksam, da es keinen Schutz gemäß der Datenschutz-Grundverordnung (DSGVO) sicherstellt. Eine Lösung dafür soll Gaia-X sein.
Einer der großen Befürworter dieser europäischen Cloudinitiative ist ZF. „Wenn es darum geht, große Mengen an Daten zu speichern und zu verarbeiten, sind wir in Europa aufgeschmissen“, sagt ZF-Konzernchef Wolf-Henning Scheider, dessen Unternehmen Azure und AWS nutzt. Anbieterseitig ist der deutsche Cloud-Provider Ionos eine treibende Kraft der neuen Plattform. „Wir sind alle auf Gaia-X eingeschworen. Es ist für uns ein starker Impuls für mehr Datensouveränität in Europa“, sagt Ionos-Vorstandsmitglied Martin Endreß.
Warum man das Rechenzentrum nicht abschreiben sollte
Dass Cloud Computing nicht für alle Aufgaben die optimale Lösung ist, gilt inzwischen als gesichert. Die größten Probleme sind Latenz, Data Governance und Data Recovery. Um potenzielle Friktionen zwischen den weiterhin erforderlichen Inhouse-Lösungen und der Cloud zu vermeiden, bieten die Provider eine Art verlängerte Infrastruktur an, die bis ins Rechenzentrum (RZ) reicht. Am bekanntesten sind AWS Outposts und Azure Stack.
Im Gegenzug bieten aber auch die RZ-Ausstatter viele Möglichkeiten, um das eigene RZ nahtlos an jede Cloud anzubinden. Dell und HPE bieten mit Dell on Demand beziehungsweise Greenlake eine servicebasierte Infrastruktur, die in den Räumen des jeweiligen Kunden installiert wird. Für die Cloudanbindung kommt dann VMware oder OpenShift von Red Hat zum Einsatz. Das lässt sich aber auch mit einer klassischen RZ-Struktur einrichten. „Mit VMware und Nutanix lassen sich virtuelle Lösungen derart in einer Public Cloud betreiben, als würden sie im nächsten Raum stehen“, sagt Michael Homborg, Category Manager Primeflex bei Fujitsu. Welcher der vielen Ansätze sich langfristig behaupten wird, ist derzeit völlig offen. Homborg hat dazu eine klare Einschätzung: „Ich bin sicher, dass sich offene Architekturen durchsetzen werden, weil universelle Lösungen den proprietären schon immer überlegen waren.“
Zudem ist er der Ansicht, dass die IT-Verantwortlichen die vielfältigen Möglichkeiten ihrer Hyperconverged und Software-defined Infrastructure (HCI/SDI) nur sehr begrenzt ausnutzen. „Liebe CIOs, macht endlich mehr mit euren HCI/SDI-Plattformen, verlangt mehr von den Betriebssystemen, konsolidiert und automatisiert mehr. Vor allem aber: Probiert mehr Neues“, lautet sein eindringlicher Appell an die IT-Chefs.