Energiefresser

KI-Rechenzentren verbrauchen gewaltig Strom. Internet- und Social-Media-Riesen wie Facebook und Google präferieren Standorte mit günstigen Energiekosten. Automotive-Firmen müssen nachziehen.

High-Performance-Computing hat sich zu einem Zugpferd der IT-Branche entwickelt. Während der gesamte IT- Markt mit unter fünf Prozent eher bescheiden wächst, legen Hochleistungsrechner derzeit zweistellig zu. Den Grund erklärt Andrew Ng, KI-Forscher der Stanford-Universität und bis vor kurzem Chief Scientist des Suchmaschinen-Anbieters Baidu. „KI und maschinelles Lernen erobern immer mehr Lebensbereiche, indem sie Muster in den schnell wachsenden Datenbergen erkennen“, macht er in seinen Vorträgen deutlich.

In dem Wettlauf um Big Data konkurrieren nicht nur Amazon, Baidu, Facebook und Google. „Bild- und Sprachverstehen und autonome Systeme in der Industrie gehören zu den wichtigsten Antreibern.“ Eine Explosion von Big Data im Autosektor durch vernetzte Fahrzeuge erwartet auch die Unternehmensberatung Bain. Die Telematikausstattung hat in Neufahrzeugen seit 2015 sprunghaft zugenommen und wird bis Ende 2020 praktisch 100 Prozent erreichen, stellte Bain in einer Studie fest. Obwohl jährlich im europäischen Schnitt vier Prozent mehr neue Autos zugelassen werden, steige die Zahl der Telematiksysteme um jährlich 34 Prozent. Das Beratungshaus Accenture geht von 100 Millionen verkauften Connected Cars im Jahr 2020 aus.

Die Hersteller erhalten damit regelmäßig Daten über Fahrhäufigkeit und -verhalten, Verschleißzustände, Verbrauch und viele andere Parameter. Sie versorgen außerdem den Fahrer mit gealterten, situationsrelevanten Informationen. Dieses Wissen um den Kunden und sein Produkt sind ein kostbarer Schatz und gleichzeitig eine große Bürde – insbesondere, wenn sie mit externen Datenquellen von Händlern, aus Social-Media-Kanälen und direktem Kundenfeedback kombiniert werden müssen. Aus der Verdichtung dieser riesigen, heterogenen Datenmenge sollen konkrete Handlungsempfehlungen entstehen. Selbstlernende Systeme sollen maßgeschneiderte Empfehlungen liefern, die nicht nur dem Kunden Konfigurationsmöglichkeiten aufzeigen, sondern bis hin zur Fabrikation neue Datenquellen auswerten und die Fertigung exibilisieren.

für intelligente Analyse- und Informationssysteme sehen große Zukunftspotenziale in Systemen wie sie in Machine-to-Machine-Verfahren zum Einsatz kommen. Ähnlich wie die Suchfunktion von Google, die mit jeder Eingabe schneller und treffsicherer wird, sollen die Systeme selbst lernen. Nach Ansicht von Fraunhofer-Experte Dirk Hecker müssen selbst die großen Autobauer gegenüber den Big-Data-Vorreitern wie Google, Facebook und Amazon noch bedeutend aufholen: „Kompetenzen um Deep Learning und Machine Learning sind noch nicht so verbreitet.“ Ein weiteres Problem sind die hohen Rechenkapazitäten, die das Deep Learning und das Trainieren neuronaler Netze erfordern.

Der Energieaufwand bringt heute bereits bestehende Rechenzentren an ihre Grenzen. Internet-Anführer wie Amazon und Google haben diese Engpässe bereits nach der Jahrtausendwende zu spüren bekommen und ihre Kapazitäten rasch ausgebaut. Ab 2005 zog auch Facebook mit dem Ausbau von Serverfarmen nach. Zwischen 2000 und 2005 explodierte nach Zahlen des US-Energieministeriums der Stromverbrauch von US-Rechenzentren um 90 Prozent. In den darauf folgenden fünf Jahren legte er um weitere 24 Prozent zu. Danach acht die Kurve ab. Seit 2014 liegt der Anstieg bei vier Prozent.

Trotz glänzender Geschäfte suchten die Big-Data-Firmen weiter nach Auswegen. Denn die Energierechnungen machen einen bedeutenden Anteil der Betriebskosten eines Rechenzentrums aus. Insbesondere die Kühlung, die nach Expertenschätzungen für ein Drittel der Betriebskosten stehen, ist aufwendig. Effiziente Kühlverfahren schlagen sich unmittelbar in der Gewinn- und-Verlustrechnung nieder und verbessern gleichzeitig die Umwelt- und Klimabilanz. Weltweit benötigen Rechenzentren eine elektrische Leistung von 30 Milliarden Watt – vergleichbar etwa mit dem Verbrauch aller Haushalte Italiens. Die Energiekosten gehören zu den am schnellsten steigenden Kosten in Rechenzentren. Regionen mit kühlem Klima und niedrigen Energiekosten, vorzugsweise aus erneuerbaren Quellen, gehören daher bei den Strategen im Silicon Valley zu den begehrten Standorten.

Facebook eröffnete 2011 sein erstes Rechenzentrum in Schweden in der arktischen Gemeinde Lulea. Im gleichen Jahr weihte Google eine Serverfarm im finnischen Hamina ein, die Wasser aus dem finnischen Meerbusen zur Kühlung verwendet. Hydro66, ein Rechenzentrum nur rund 80 Kilometer vom schwedischen Polarkreis entfernt, wird nach eigenen Angaben vollständig mit Hydroenergie betrieben. Das Schlüsselattribut dieser Standorte ist eindeutig: Das kühle Klima senkt oder eliminiert gar die Abhängigkeit von elektrischen Kühlsystemen, die zusätzlich zum Rechnerbetrieb Energie verschlingen. Die Rechner können einfach mit kalter Luft, Frischwasser oder Wärmetauschern auf Betriebstemperatur gehalten werden. Das Rechenzentrum Verne Global in Keflavik auf Island, nahe einer früheren NATO-Kaserne, steht in unmittelbarer Nähe zu zwei Geothermiekraftwerken. VW hat sich hier eine Kolokation gesichert. Die Energiekosten liegen laut Betreiber bei einem Fünftel der Preise in größeren kontinentaleuropäischen Städten.

Das allein aber reicht den Datenspezialisten nicht. Facebook und Google konstruieren seit Jahren nicht nur ihre eigenen Server, sondern beeinflussen auch die Weiterentwicklung von Mikroprozessoren. Chip-Bauer Intel hat im vergangenen Sommer einen eigens für High-Performance-Computing optimierten Schaltkreis vorgestellt, der sich beim Training von Neuronalnetzen bewähren soll. Während Intel und sein Rivale Nvidia sich jeweils große Chancen als Zulieferer für KI-Systeme im Automobilsektor ausrechnen, hat Google im Stillen einen eigenen Prozessor gebastelt, der speziell auf KI-Anwendungen ausgerichtet ist. Die Tensor Processing Unit (TPU) ist ein ASIC-Chip mit speziell für Maschinen-Lernen konstruierter Architektur: Sie liefert eine geringere mathematische Genauigkeit als traditionelle CPUs, ermöglicht dafür aber mehr komplexe Operationen. Seit einem Jahr wird die TPU bereits in Google-Rechenzentren für das Ranking von Suchoperationen eingesetzt, ebenso um die digitalen Karten und den Dienst Streetview zu verbessern.

Autor: Erich Bonnert

Fotos: Gunnar Svedenbäck, Sweco

Dieser Artikel erschien erstmals in der automotiveIT 05/2017

Sie möchten gerne weiterlesen?