Igal Raichelgauz

Autobrains-CEO Igal Raichelgauz ergatterte bislang 140 Millionen Dollar an Investitionen. (Bild: Autobrains)

automotiveIT car.summit 2025

Logo automotiveIT car.summit - Engineering meets IT

Beim automotiveIT car.summit am 11. November 2025 in München gehen die Experten-Talks zu den Herausforderungen um das Software-Defined Vehicle, autonomes Fahren und Connectivity in die nächste Runde. Gemeinsam mit Vorreitern von OEMs, Zulieferern und Tech-Playern schlagen wir die Brücke zwischen klassischer Fahrzeugentwicklung und Software/IT. 🎫 Jetzt Ticket sichern!

Herr Raichelgauz, auf der IZB 2024 präsentierten Sie Autobrains neue Produktlinie für assistiertes und autonomes Fahren namens Skills. Die Technologie besteht aus einer Vielzahl neuronaler Netzwerke und basiert auf der firmeneigenen Liquid-AI-Technologie. Wie geht diese Technologie mit den Herausforderungen um, die bestehende Systeme in Bezug auf Edge Cases haben?

Eines der Hauptprobleme bei den heutigen Systemen ist, dass sie auf durchschnittliche Szenarien optimiert sind. Üblicherweise wird ein großes neuronales Netzwerk verwendet, das mit einer riesigen Menge an Daten trainiert wird, um den Durchschnitt über das gesamte Trainingsset zu optimieren. Das ist das Problem. Liquid AI hingegen ist viel anpassungsfähiger. Anstatt ein vollständiges neuronales Netzwerk auf einen Durchschnitt zu optimieren, zerlegt es das Problem in kleinere Teile und optimiert diese separat. Dadurch wird die Komplexität reduziert. Der Grund, warum wir es „liquid“ nennen, ist, dass Informationen wie ein Strom durch das System fließen und in verschiedene Bereiche geleitet werden. Diese Bereiche arbeiten isoliert und unabhängig voneinander. Durch diese Aufteilung in kleinere Probleme können wir das „Long Tail“  von Edge Cases adressieren, ohne in den Durchschnittsfällen hängen zu bleiben.

Wann haben Sie mit der Entwicklung dieser Technologie begonnen?

Die Technologie ist bereits relativ ausgereift. Wir haben vor etwa fünf Jahren mit der Gründung des Unternehmens begonnen, und die Technologie war zu diesem Zeitpunkt schon reif, aber noch nicht für den Automobilbereich. Die Firma wurde gegründet, um bewährte Technologien aus anderen Bereichen wie der medizinischen Bildverarbeitung oder der Sicherheitsüberprüfung auf den Automobilbereich anzuwenden. Unser erstes Projekt war die Entwicklung eines ADAS-Systems, und jetzt skalieren wir in Richtung vollständiger Autonomie. Seit fünf Jahren arbeiten wir daran.

Wie unterscheiden sich die Skills-Produkte beispielsweise vom Mobileye-Ansatz?

Der Ansatz von Mobileye basiert auf überwachten Lernmethoden. Sie nutzen Daten für die verschiedene Szenarien, wie Fußgänger und Fahrzeuge, die manuell gelabelt wurden und permanent abgerufen werden. Das macht das System relativ teuer. Mobileye verwendet verschiedene Module, wie das Perception-Modul für die Wahrnehmung, das Planungsmodul und das Steuermodul. Liquid AI hingegen ist viel adaptiver. Es verwendet nicht ständig alle Ressourcen für jedes Szenario, sondern aktiviert die jeweils passenden Ressourcen, was es viel weniger rechenintensiv macht. Dadurch reduzieren sich die Kosten erheblich. Wir brauchen auch nicht diese große Anzahl von Menschen, die Daten manuell labeln. Unsere Technologie ist in der Lage, selbstständig zu lernen, was Fußgänger, Autos oder Ampeln in den Bildern sind. Dadurch können wir das Labeling deutlich effizienter gestalten, was die Gesamtkosten für die Rechenleistung sowie für das Training und die Validierung erheblich senkt.

Sie haben zudem gesagt, dass Ihre Technologie besser ist als die von Tesla. Können Sie ihr Selbstbewusstsein erklären?

Tesla verfolgt einen Ansatz, der auf einer Vision-Only-Lösung basiert, um ein autonomes Fahrzeug zu entwickeln, das überall fahren kann. Tesla ist führend bei der Vision-Technologie, und sie haben einen klaren Vorteil durch ihre Flotte und ihre Infrastruktur. Aber Tesla verwendet immer noch ein einziges riesiges neuronales Netzwerk, und um Edge Cases abzudecken, müssen sie enorme Ressourcen investieren. Unsere Technologie hingegen benötigt keine exponentiellen Ressourcen, um dieselben Ergebnisse zu erzielen. Wir kommen mit einer eleganteren Lösung, die effizienter ist.

Wie weit sind Sie in Bezug auf die Zusammenarbeit mit OEMs? Verwenden bereits OEMs Ihre Technologie?

Unser Produkt wird bis Ende dieses Jahres in China auf die Straße kommen und im ersten Halbjahr des nächsten Jahres auch in Europa.

Können Sie verraten, um welche OEMs es sich handelt?

Nein, noch nicht. Wir werden die Informationen bekannt geben, sobald es veröffentlicht wird.

Ist es einfacher, Ihre Technologie in bestehende Systeme zu integrieren?

Ja, unser Ansatz ist softwarebasiert und hardwareagnostisch. Das bedeutet, dass wir keine eigenen Chips oder spezielle Hardware benötigen. Wir können auf bestehende Chips und Hardware zurückgreifen, was die Integration viel einfacher macht. Wir sind auch sensoragnostisch, was bedeutet, dass wir uns nahtlos in bestehende Systeme einfügen können. Unsere Lösung passt sehr gut zu softwaredefinierten Fahrzeugen, bei denen Software-Updates über die Luftschnittstelle (Over-the-Air, Anm. d. Red.) durchgeführt werden können, ohne dass Hardwareänderungen erforderlich sind.

Welches SAE-Level meistert Ihre Technologie aktuell?

Wir starten bei Level 2+ und machen es extrem kosteneffizient. Wir skalieren dann bis hin zu Level 4.

Ist die Technologie auch für Robotaxis anwendbar?

Nein, wir konzentrieren uns nicht auf Robotaxis, da diese in einem geofencing-basierten Umfeld arbeiten, was weniger herausfordernd ist. Wir fokussieren uns eher auf Fahrzeuge, die überall ohne Aufsicht fahren können, wie es Tesla anstrebt.

In Deutschland legt man großen Wert auf Sicherheit und intensive Testverfahren, bevor Fahrzeuge zugelassen werden. Glauben Sie, dass es schwieriger ist, solche Technologien in Deutschland zu implementieren?

Ja, in Deutschland liegt die Messlatte sehr hoch, was die Qualität betrifft. In China liegt der Fokus mehr auf Geschwindigkeit, während in Deutschland die Qualität im Vordergrund steht. Unser Ziel ist es, beide Anforderungen zu erfüllen.

Zur Person:

Igal Raichelgauz, Gründer und CEO von Autobrains, startete seine Karriere beim militärischen Elitenachrichtendienst, bevor er Figment, eine Messaging-Plattform, mitbegründete. Später wurde er zum CTO von LCB, einem Unternehmen für Spracherkennung. Im Jahr 2007 war Igal Mitbegründer von Cortica, einem KI-Unternehmen, das für seine selbstlernende KI-Technologie für die visuelle Wahrnehmung bekannt ist. Bei Cortica war er federführend bei der Gründung von sieben KI-Unternehmen in verschiedenen Bereichen, darunter Autobrains im Bereich des autonomen Fahrens.

Sie möchten gerne weiterlesen?