Eine Visualisierung autonomer Fahrzeuge mit Radarerkennung einer Brücke.

4D Imaging Radar bildet auch den Elevationswinkel ab. (Bild: NXP)

Welche Vorteile hat 4D Imaging Radar?

4D-Radare ermitteln neben Geschwindigkeit, Distanz und Horizontalwinkel auch die Höhe von Objekten. Sie haben eine hohe Auflösung, können Objekte detektieren, separieren sowie klassifizieren und leiden nicht unter schlechten Licht- oder Wetterverhältnissen. Im Vergleich zu Lidar-Sensoren benötigen sie kein dediziertes Frontend für ihre verschiedene Distanzen bis rund 300 Meter. Sie gelten als robust bei hohen Temperaturen und sind aufgrund ihrer geringeren Kosten in hohem Maße skalierbar.

Beim Erfassen der Fahrzeugumgebung waren Stärken und Schwächen lange Zeit klar verteilt. Kameras erkennen Objekte in hoher Auflösung, werden jedoch durch schlechte Lichtverhältnisse sowie Einschränkungen bei Kontrast und Tiefe beeinträchtigt. Radar funktioniert hingegen bei allen Licht- und Wetterverhältnissen, liefert aber keine gute Auflösung, arbeitet lediglich horizontal und kann bewegende nicht von stationären Objekten unterscheiden. Lidar ermöglicht eine detaillierte Punktewolke der Umwelt, doch verzeichnet als laserbasierter Sensor ebenfalls Einbußen bei schlechtem Licht und Wetter. Erst eine Sensordatenfusion in Kombination mit Kartendaten bescherte den notwendigen Detailgrad beim autonomen Fahren.

Wie erfasst 4D Imaging Radar die Umwelt?

Mit der zunehmenden Marktreife hochauflösender Radarsysteme könnten die Karten jedoch neu gemischt werden. Während das klassische Radar mit seinen horizontal angeordneten Antennen standardgemäß Geschwindigkeit, Distanz und Horizontalwinkel (Azimut) abbildet, bezieht 4D Imaging Radar mit zusätzlichen vertikalen Elementen ebenfalls die Höhe mit ein. „Letztere benötigt es etwa zur Erfassung von Brücken oder Randsteinen sowie zur verbesserten Klassifizierung von Objekten oder Verkehrsteilnehmern“, erläutert Matthias Feulner, Senior Director ADAS bei NXP im Interview mit automotiveIT.

Der ebenfalls als 4D-Radar oder Full-Range-Radar bezeichnete Sensor kann somit nicht nur die Breite eines Objekts oder gegebenenfalls eine grobe Abschätzung hinsichtlich der Höhe liefern. Er kreiert ein räumliches Abbild im Sinne einer Punktwolke, in der Objekte detektiert, separiert und klassifiziert werden. Auch Gegenstände, die voreinander im selben Elevationswinkel stehen, sollten ihn vor keine Probleme stellen. Das Stauende unter einer Brücke könnte ebenso zuverlässig erkannt werden wie hinter parkenden Autos hervortretende Fußgänger samt deren Bewegungsrichtung.

Weshalb haben 4D-Radare eine bessere Auflösung?

Dafür legt die Radarlösung ihre wohl größte Schwäche gegenüber Kamera und Lidar ab – die geringe Auflösung. Analog zu den Pixeln eines Kamerabilds bestimmen bei Radargeräten die Antennenfläche sowie die Anzahl der Kanäle über die Abbildungsleistung. Frühere Systeme verfügten über acht oder zwölf virtuelle Kanäle, mittlerweile ist die Größe des Antennenarrays auf eine dreistellige Anzahl an Kanälen angewachsen. Dadurch steigert sich die Anzahl der erfassbaren Messpunkte – und es gibt weiter Luft nach oben.

„Die Komplexität der Hardware wird unweigerlich zunehmen“, kommentiert Huanyu Gu, Director Marketing & Business Development ADAS bei NXP, den Zuwachs an virtuellen Kanälen. Es benötige effiziente Software, um die Kosten im Zaum zu halten. Anstatt eines Uniform Linear Array (ULA) nutzt der Chiphersteller deshalb einen Sparse Array, der die Anzahl der virtuellen Kanäle um 75 Prozent reduziert. So ließen sich auch mit 192 Kanälen eine verbesserte Auflösung und Punktewolke erzielen, führt Gu weiter aus.

Wie halten 4D-Radare die Signale auseinander?

Bei der Ortung des Echos nutzt 4D Imaging Radar sogenannte MIMO-Signale mit mehreren Eingängen und Ausgängen, die parallel betrieben werden. „Ein Umschalten von einem Modus in den anderen ist nicht notwendig, da MIMO-Signale auf der Empfängerseite des Sensors auseinanderhalten, von welcher Sendeantenne abgestrahlt wurde“, betont NXP-Experte Matthias Feulner. Ein dediziertes Frontend für verschiedene Distanzen sei somit – im Vergleich zu Lidar – nicht von Nöten. Ein Teil der Antennen werde jeweils für die Erfassung der näheren, mittleren und weiteren Entfernung verwendet. Die Reichweite steigt auf 300 Meter oder mehr.

Je mehr Fahrzeuge jedoch mit Radar ausgestattet sind, desto schwieriger wird es, Störungen der Signale auszugleichen. „Vermeidung wird nicht länger ausreichen“, bringt Huanyu Gu es auf den Punkt. Vielmehr sei auch in diesem Bereich ein Software-Ansatz von Nöten, insbesondere da es der Industrie an einheitlichen Herangehensweisen fehle. Geringe Störungen können demnach mit konventionellem Time-Domain Thresholding ausgeglichen werden. Komplexere Störungen benötigen hingegen ein fortschrittlicheres Multi-Domain Processing, um die Signalausschläge der Objekte herauszufiltern, zeigt Gu in seinem Vortrag auf.

Welche Autohersteller nutzen 4D-Radare?

Trotz aller bisher genannter Stärken dürfte Skalierbarkeit der Trumpf des 4D-Radars sein. Die hohen Kosten, die selbst im Volumen noch vorherrschen, hätten Lidar-Sensoren in der weiteren Verbreitung beschränkt, konstatiert Matthias Feulner. Radar sei nicht nur die robustere, sondern auch kosteneffizientere Lösung. Kein Wunder also, dass auf autonomes Fahren spezialisierte Unternehmen wie Mobileye zunehmend mit der Technologie experimentieren und Zulieferer wie Continental, ZF, Magna, Valeo oder Aptiv ihr Produktportfolio erweitern.

An den Automobilherstellern geht dieser Trend nicht spurlos vorbei: So bildet die S32R-Plattform von NXP bereits die Chip-Grundlage für Nio. SAIC verbaut indes den Full-Range-Radar von ZF in seinen Elektro-SUVs, während Fisker den Sensorik-Reigen des neuen Ocean um fünf 4D-Radare ergänzen will. Und auch bei Tesla gilt die Technologie als heißer Kandidat für eine Abkehr vom bisherigen Sensorik-Alleingang.

Wo werden Radare im Auto verbaut?

Im Jahr 2025 werden in Fahrzeugen auf SAE-Level 2+ dann durchschnittlich fünf Radare verbaut sein, prognostiziert ADAS-Experte Matthias Feulner. Bei steigenden SAE-Leveln könnten es abseits der Autobahn bis zu zehn Sensoren werden. Für den Rundumblick benötige es ein Radar an der Front, einen am Heck, vier an den Ecken der Stoßstangen, zwei an den Seiten, die benachbarte Fahrzeuge oder den Randstein beobachten, sowie eventuell zusätzliche Behelfssensoren, um vertikale Objekte wie Brücken oder Durchfahrten genauer erfassen zu können.

Obwohl 4D-Radare gar auf SAE-Level 4 und 5 ausgelegt sind, machen sie den Dreiklang aus Kamera, Radar und Lidar dennoch nicht obsolet. „Selbst das fortschrittlichste 4D Imaging Radar funktioniert nicht im luftleeren Raum“, betont Aptiv auf ihrer Unternehmensseite. Nur eine Sensorfusion kann den Ausfall einer Komponente kompensieren sowie Daten ausreichend verifizieren.

4D Imaging Radar kann das autonome Fahren somit sicherlich besser in den Volumenmarkt überführen, aber nicht alle Probleme auf einen Schlag lösen. Das Zusammenspiel mit Kamera und Lidar müsse die Redundanz bei vollautonomen Fahrzeugen gewährleisten, meint auch Matthias Feulner. Trotzdem werde Lidar in vielen Anwendungsfällen nicht mehr zwingend nötig sein und letztlich gar zu einer Nische verkommen.

Sie möchten gerne weiterlesen?