Batteriezellen in einem Batteriepack für Elektroautos / So kann KI das Leben der Batterie verlängern

Forscher des Hasso-Plattner-Instituts arbeiten daran, Batteriezellen besser zu verstehen und zu nutzen. (Bild: Adobe Stock / Nischaporn)

Batteriezellen sind wie ein guter Whiskey: Das Grundprinzip im chemischen Aufbau ist mehr oder weniger identisch, der individuelle Charakter entsteht erst im Reifevorgang. Was bei der Spirituose etwa die Wahl des Holzes für das Fass oder die Dauer der Reifung ist, ist bei der einzelnen Batteriezelle in einem größeren Akku-Pack vor allem die Art und Intensität der Nutzung. Ob die Batterien durch einen aggressiven Fahrstil schneller entladen, durch Aufladen bis einhundert Prozent ihrer Kapazität aggressiv beladen werden oder in welchem Temperaturfenster Ladevorgänge stattfinden – all dies hat über tausende Lade- und Entladevorgänge einen Einfluss auf den Zustand von Kathoden, Anoden und anderen Elementen der Zellen. Im gemeinsamen Projekt des Fachbereichs KI und Nachhaltigkeit des Hasso-Plattner-Instituts (HPI) und eines Berliner Startups arbeitet ein Forscherteam rund um HPI-Professor Ralf Herbrich an Algorithmen, die eben diese Unterschiede optimal erfassen und so den Batteriezellen durch ihre optimierte Nutzung zu einem längeren Leben verhelfen sollen.

Algorithmus prognostiziert Abnutzung von Batteriezellen

„Prinzipiell beschäftigen wir uns mit der Frage, mit Hilfe von KI-Algorithmen zu bestimmen, wie verschlissen einzelne Bestandteile von Batteriezellen bereits sind“, erklärt Herbrich. „Die Grundhoffnung ist, die Lebensdauer, also die Anzahl der möglichen Lade- und Entladezyklen, zu erhöhen.“ Wichtige Parameter seien dabei die an die Batterie angelegte Last, die sich einstellenden Lade- und Entladespannungen, herrschende Temperaturen sowie die Spannungsbalance zwischen verschiedenen Zellen. Typischerweise werden diese Parameter durch ein Batteriemanagementsystem mit einem eigenen Regelwerk gesteuert. Die hierbei in Echtzeit erfassten Daten stellen die Grundlage für die Prognosen der von den Forschern entwickelten KI-Algorithmen dar. „Wir versuchen, bekannte Gesetze der Physik und der Elektrotechnik bei der Modellierung der KI-Algorithmen mit zu berücksichtigen, um so Verschleißparameter, die wir nicht exakt messen können, genauer schätzen zu können“, so Herbrich. Beispiele hierfür seien etwa die Klemmspannung an der Zelle bei Ladevorgängen unter bestimmten Temperaturbedingungen oder deren Verhalten nach mehreren Tausend Ladevorgängen. „Das zu lösende mathematische Problem liegt darin, die unbekannten Zustände von Anode, Kathode, Separator oder des Elektrolyts allein aus der Reaktionszeitreihe von Spannung und Temperatur bei Be- und Entladung zu erschließen.“

Das Ziel der Forschung sei es, besser physikalisch zu verstehen, wo sich in der Zelle bereits Lithium angelagert hätte, ohne die Batterien öffnen zu müssen. Auf Basis der erfassten Daten könne man die Batterien dann durch Veränderungen von Parametern wie der Umgebungstemperatur, der Ausgleichsspannung oder der maximalen Ladelast für mehr Charging-Vorgänge nutzen. Der Fokus der Forscher liegt aktuell auf der Nutzung der Stromspeicher in Second-Life-Anwendungen. Grund für diese Entscheidung ist vor allem die bessere Verfügbarkeit der Daten nach dem Ausbau der Batterie aus dem Fahrzeug. Grundsätzlich lassen sich die entwickelten Modelle allerdings auch auf Zellen anwenden, die sich noch im First-Life-Einsatz befinden.

KI selbst muss mehr Energie sparen

Doch wie groß ist der Nachhaltigkeits-Nutzen von optimal ausgelasteten Batterien wirklich, wenn die genutzte KI gleichzeitig große Mengen an Strom verbraucht? Auch diese Problemstellung haben Ralf Herbrich und sein Team im Rahmen anderer Projekte im Auge: Neben der Effizienzsteigerung von Batterien steht auch der Energieverbrauch der KI selbst auf der Agenda. „Modelle wie ChatGPT oder Systeme zur künstlichen Bildgenerierung verbrauchen nicht unwesentliche Mengen an Energie“, erklärt Herbrich. „Wir beschäftigen uns damit, eine sehr ähnliche Berechnungsgenauigkeit zu erzielen, während man nur etwa ein Hundertstel der Energie benötigt. Ein Weg, dies zu erreichen, ist die Berechnungen mit deutlich weniger Genauigkeit durchzuführen – sich also absichtlich zu verrechnen, um weniger Energie pro Rechenschnitt zu benötigen.“

Sie möchten gerne weiterlesen?