
automotiveIT hat Clément Nouvel am Rande der Tech.AD in Berlin getroffen. Nouvel: „Für Level 3 ist Lidar notwendig – auch wenn ein oder zwei OEMs behaupten, dass sie auf Level 3 oder 4 abzielen und sich dabei auf andere Lösungen verlassen.“ (Bild: Valeo/Harald Barth)
Herr Nouvel, wo steht die Diskussion über autonomes Fahren und die dafür erforderlichen Sensoren derzeit?
Im Mittelpunkt steht die Frage nach der optimalen Anzahl von Sensoren, dem nötigen Auflösungsniveau und der Redundanz zwischen Kamera, Radar und Lidar – also der sogenannten Wahrnehmungsfähigkeit. Parallel rückt die Vorhersage zunehmend in den Fokus: Wie kann KI dieselben Sensordaten intelligenter nutzen? Besonders generative KI verändert derzeit die Fahrzeugsoftware-Entwicklung grundlegend. Auch das Software-Defined Vehicle (SDV) ist ein Treiber: Neue Entwicklungen müssen schnell integrierbar sein – nicht erst mit dem nächsten Modellzyklus. Die Fähigkeit, Fahrzeuge regelmäßig zu aktualisieren, wird so zum Beschleuniger für autonomes Fahren.
Einige Zulieferer wenden sich von der Lidar-Technologie ab – sie hingegen nicht. Was unterscheidet Sie von Ihren Wettbewerbern?
Ein wesentlicher Unterschied ist unsere Erfahrung: Wir haben als Erste automobilgeeignete Lidar-Sensoren auf den Markt gebracht – ein echter Durchbruch. Dabei ging es darum, Lidar aus anderen Branchen für den Automobilsektor nutzbar zu machen. Ein Meilenstein war auch das erste Level-3-System mit Lidar, etwa bei Mercedes-Benz. Dort geht die Verantwortung vom Fahrer auf den OEM über – das erfordert maximale Leistungsfähigkeit, Zuverlässigkeit und Sicherheit. Unsere Technologie erfüllt diese Anforderungen und wir können sie skalieren. Während sich andere wegen hoher Investitionen zurückgezogen haben, haben wir 14 Jahre kontinuierlich in die Weiterentwicklung gesteckt.
Lidar gilt allgemein als teure Technologie, doch Sie möchten sie demokratisieren. Wie arbeiten Sie daran, die Kosten zu senken und die Skalierbarkeit zu erhöhen?
Wir setzen auf schrittweise Innovation und zunehmend standardisierte Komponenten – das senkt die Kosten mit wachsendem Volumen. Zusätzlich profitieren wir von günstigeren Optikkomponenten. Unsere nächste Generation wird außerdem auf einer neuen Technologie basieren wie etwa FMCW-Lidar (Frequency Modulated Continuous Wave, Anm. d. Red.), das neue Integrationsmöglichkeiten eröffnet und die Kosten deutlich weiter senkt.
Würden Sie sagen, dass Lidar für Level 3 und Level 4 Autonomie unerlässlich ist, oder gibt es Szenarien, in denen kamerabasierte Systeme ausreichen?
Das ist ein lang diskutiertes Thema, aber der Konsens ist klar: „Für Level 3 ist Lidar notwendig – auch wenn ein oder zwei OEMs behaupten, dass sie auf Level 3 oder 4 abzielen und sich dabei auf andere Lösungen verlassen“. Ergänzend kann eine Wärmebildkamera sinnvoll sein. Die notwendige Redundanz ergibt sich aus dem Zusammenspiel von Kamera, Radar und Lidar. Jede Technologie hat ihre Stärken: Radar ist wetterrobust, Lidar bietet hohe Auflösung und Reichweite. Die Kombination dieser drei ist branchenübergreifend anerkannt und hat sich als Standard etabliert.
Wie eng arbeiten Sie mit OEMs zusammen, um Lidar-Sensoren funktional und ästhetisch zu integrieren?
Sehr eng – und zunehmend bereichsübergreifend. Neben den Teams für autonomes Fahren arbeiten wir heute intensiv mit Karosserie-, Licht- und Windschutzscheibenteams zusammen. Anfangs wurde Lidar meist im Stoßfänger oder Kühlergrill integriert. Heute verlagert sich der Trend zur Dachmontage – und langfristig erwarten wir eine Integration hinter der Windschutzscheibe. Das bringt Vorteile bei der Sicht, etwa für Spurwechsel. Diese Integration ist technisch anspruchsvoll. Deshalb arbeiten wir auch mit Windschutzscheibenherstellern, um voll validierte Systemlösungen zu bieten, die selbst bei Verschmutzung oder Alterung der Windschutzscheibe zuverlässig funktionieren. Unser Ziel ist eine Integration so dezent wie bei heutigen Kameras.
Lassen Sie uns über die technischen Aspekte der Scala-Produktreihe sprechen. Worin unterscheidet sich die dritte Generation von ihren Vorgängern? Welche Verbesserungen haben Sie in Bezug auf Reichweite, Auflösung und Zuverlässigkeit vorgenommen?
Für Level-3-Systeme ist entscheidend, kleine Objekte wie verlorene Ladung frühzeitig zu erkennen. Dafür braucht es hohe Reichweite und Auflösung. Scala 1 hatte vier Schichten, Scala 2 sechzehn, und Scala 3 erreicht nun bis zu 500 – ein großer Schritt. Die Winkelauflösung liegt bei 0,05°, um etwa einen Reifen aus 150 Metern zuverlässig zu erkennen – wichtig bei Autobahntempo. Die technische Herausforderung ist, Reichweite und Auflösung in Einklang zu bringen: Eine höhere Auflösung verringert die Menge des pro Pixel erfassten Echolichts. Wir haben deshalb Lichtquelle und Empfänger optimiert. Zudem wurde das Gehäuse deutlich verkleinert – mit einer Bauhöhe von unter 45 mm – damit sich Lidar dezent ins Fahrzeugdesign einfügt, etwa bei Dach- oder Windschutzscheibenintegration.
Wir haben nun über die dritte Generation von Scala gesprochen. Welche Verbesserungen würden Sie sich für eine vierte Generation wünschen?
Die Scala-Reihe eignet sich weiterhin gut für langstreckige Frontanwendungen. Scala 3.5 oder 4 wird eine Weiterentwicklung bestehender Technologie sein. Ein echter Technologiesprung könnte durch FMCW-Lidar erfolgen. Es funktioniert wie Radar, nutzt jedoch Licht zur Messung von Distanz und Geschwindigkeit – ideal zur Bewegungsanalyse. So ließe sich etwa die Richtung von Fußgängern oder Radfahrern vorhersagen. Besonders in urbanen Szenarien wäre das wertvoll, etwa bei Robotaxis. Diese müssen vor dem Losfahren sicherstellen, dass sich keine kleinen Objekte – wie Kinder oder Haustiere – im Umfeld befinden. Kameras und Radar stoßen hier an ihre Grenzen. FMCW-Lidar mit Geschwindigkeitsmessung könnte diese Lücke schließen – ein zentraler Schritt für die nächste Phase des autonomen Fahrens.
Lassen Sie uns tiefer in das Thema komplexe Verkehrssituationen und die Erkennung sowie Klassifizierung von Objekten eintauchen. Wie arbeiten Sie derzeit an der Objektklassifizierung und -erkennung mit Lidar?
Unsere Systeme für Autobahnszenarien erkennen und verfolgen bereits zuverlässig Autos, Fußgänger, Fahrräder und Motorräder. Der KI-Einsatz nimmt dabei stetig zu – insbesondere bei der Klassifizierung, wie sie auch bei Kameras üblich ist aber dieses Mal mit nativen 3D-Empfindungen. Für die exakte Lokalisierung setzen wir weiterhin auf regelbasierte Verfahren. Unser Ansatz kombiniert die Stärken generativer KI mit klassischen Methoden – unter der Prämisse von Sicherheit und Nachvollziehbarkeit. Genau das ist aktuell eine große Herausforderung: KI kann leistungsfähig sein, muss aber erklärbar bleiben. Dass wir sowohl die Hardware als auch die Wahrnehmungssoftware intern entwickeln, ist ein klarer Vorteil – das bieten nur wenige Unternehmen.
Haben Sie in den letzten Jahren eine spürbare Beschleunigung durch KI erlebt?
Absolut. Besonders bei video- und kamerabasierten Systemen hat KI enorme Fortschritte ermöglicht dank der bereits vorhandenen großen Datenbanken – vor allem bei Level 2 und unüberwachten Level-3-Systemen. Auch in unserem Perception-Stack setzen wir zunehmend auf KI-Modelle. Neben generativer KI haben Simulationen und digitale Zwillinge unser Entwicklungstempo deutlich erhöht. Gemeinsam mit Applied Intuition haben wir virtuelle Sensormodelle entwickelt, mit denen sich komplexe Szenarien und Randfälle realistisch nachbilden lassen – noch bevor ein physischer Sensor existiert. Das beschleunigt die Entwicklung und verbessert die Absicherung erheblich.
Ein weiterer wichtiger Aspekt ist die Sensorfusion. Wie gehen Sie damit um, wenn Sie Ihre Systeme in Fahrzeuge integrieren und mit anderen Sensoranbietern kooperieren?
Früher lieferten wir primär Sensoren – die Integration übernahmen die OEMs. Viele halten bis heute an diesem Modell fest. Mittlerweile bieten wir jedoch Komplettlösungen: Software, Sensorfusion und Pfadplanung als integriertes Paket. Immer mehr OEMs entscheiden sich dafür – teils aus Ressourcengründen, teils zur Reduktion von Komplexität. Dabei können wir auch Fremdsensoren einbinden, arbeiten standardmäßig aber mit unseren eigenen, da wir ihre optimale Kombination genau kennen.
Arbeiten Sie bereits mit Edge Computing, um Daten direkt im Fahrzeug zu verarbeiten und so die Notwendigkeit einer Datenübertragung in eine Cloud zu minimieren?
Für ADAS ist die Cloud ohnehin kein zentrales Thema – Echtzeitverarbeitung bleibt im Fahrzeug, etwa aus Sicherheits- und Latenzgründen. Die Cloud nutzen wir dagegen intensiv für Entwicklung und Tests. Auf der CES haben wir gezeigt, wie wir Software und virtuelle Hardwaremodelle simulieren – inklusive Alterungsverhalten. Dafür arbeiten wir mit Partnern wie Applied Intuition und AWS zusammen. Cloudbasierte Entwicklung beschleunigt unsere Zyklen (wir streben eine Zeitersparnis von 40 % bei den Entwicklungszyklen an), erleichtert Updates und senkt das Fehlerrisiko – ein wachsender Trend in der Branche.
Zum Abschluss des Interviews ein Blick in die Zukunft: Wie sieht Ihrer Meinung nach die Entwicklung von Lidar und Sensor-Stacks in den nächsten fünf Jahren aus?
Kameras, Radare und Lidar bleiben die zentralen Sensormodalitäten. Wärmebildkameras könnten für Robotaxis dazukommen. Lidar wird in Level 3 und 4 unverzichtbar sein, bei sinkenden Kosten auch zunehmend in Level-2-Systemen. Lidar verbessert nicht nur Sicherheit und Zuverlässigkeit, sondern liefert auch wertvolle Trainingsdaten für KI – ein klarer Vorteil in vernetzten Flotten. Darüber hinaus verändert sich die Softwarearchitektur grundlegend: Künftig wird KI – insbesondere unter dem Anstoß von Large Language Models – das autonome Fahren maßgeblich prägen. Wir glauben, dass es eine zusätzliche Sicherheitsebene braucht – einen „Schutzengel“, der permanent überwacht und bei Anomalien eingreift, etwa durch ein Minimum Risk Maneuver. Unternehmen wie Mobileye treiben diese Entwicklung voran. Valeo arbeitet eng mit solchen Partnern zusammen, um den Wandel aktiv mitzugestalten. KI wird das autonome Fahren menschlicher machen – und damit die gesamte Branche nachhaltig verändern. Aber es verändert sich auch die Herangehensweise an die Technik.
Inwiefern?
Eine zentrale Entwicklung ist der Wandel von reiner Wahrnehmung hin zur Vorhersage. Lange lag der Fokus auf immer höherer Sensorauflösung. Valeo hat hier viel investiert. Doch durch KI und softwaredefinierte Fahrzeuge vollzieht sich ein Paradigmenwechsel: KI ermöglicht es, Muster zu erkennen und auf Basis dieser Informationen zukünftige Szenarien vorherzusagen – ähnlich wie der Mensch es intuitiv tut. Autonome Systeme werden dadurch nicht nur reaktiver, sondern proaktiver. Die zweite große Veränderung betrifft die SDVs selbst. Sie erlauben schnelle Software-Updates – unabhängig vom Fahrzeugmodellzyklus. Wir kommen also von einem wahrnehmungsbasierten hin zu einem adaptiven Paradigma. Während Hardware langsame Zyklen hat, entwickelt sich Software rasant – das verändert die Spielregeln. Wer relevant bleiben will, muss sich darauf einstellen. Unternehmen, die bisher durch Sensorik führend waren, müssen jetzt auch KI- und SDV-Kompetenzen mitbringen. Bei Valeo treiben wir genau diese Transformation aktiv voran, um technologisch an der Spitze zu bleiben.
Zur Person:
Clément Nouvel ist LiDAR-CTO des französischen Zulieferers Valeo. In seiner aktuellen Position verantwortet er die Entwicklung der LiDAR-Produkte von Valeo und leitet ein globales Team, das Aufgaben von der Geschäftsentwicklung und dem Engineering bis hin zu Technologiepartnerschaften abdeckt. Zuvor war Nouvel von 2016 bis 2019 als Director Business Development für Aktive Sicherheit bei Valeo tätig. Davor hatte er seit 2003 verschiedene Positionen innerhalb der Renault-Nissan-Allianz inne – mit Fokus auf Innovationsentwicklung und Projektmanagement, sowohl in Frankreich als auch in Asien. Clément Nouvel besitzt Abschlüsse der École Polytechnique und der École Supérieure d’Électricité sowie einen MBA der INSEAD.