Connected Cars auf einer Schnellstraße

Um die Sensorik von vernetzten Autos sinnvoll zu konsolidieren, arbeiten Fraunhofer-Forscher an einem Lidar- und Radar-fähigen Scheinwerfer. (Bild: Adobe Stock / metamorworks)

Auf dem Weg zum autonomen Fahren nehmen Sensorik- und Kamerasysteme immer größeren Raum im Fahrzeug ein – jedoch nicht nur hinsichtlich ihrer Funktionalitäten, sondern auch im physikalischen Sinne. Entwickler und Designer müssen sich daher stärker der Frage nach der Positionierung der Technik widmen. Eine Lösung erarbeiten aktuell fünf verschiedene Fraunhofer-Institute, darunter etwa das Institut für Hochfrequenzphysik und Radartechnik FHR und das Institut für Angewandte Optik und Feinmechanik IOF, im gemeinsamen Projekt Smart Headlight.

Wie der Projektname vermuten lässt, haben es sich die Forscher zum Ziel gemacht, Sensoren möglichst unauffällig und platzsparend in den Scheinwerfern des Fahrzeugs unterzubringen und mit adaptiven Lichtsystemen zu kombinieren. So sollen Objekte auf der Straße, insbesondere andere Verkehrsteilnehmer, noch besser erkennbar werden. „Wir integrieren Radar- und Lidar-Sensoren in die Scheinwerfer, die ja sowieso vorhanden sind und die ein Optimum an Transmission für optische Sensoren und Lichtquellen sowie für Verschmutzungsfreiheit garantieren“, sagt Tim Freialdenhoven, Wissenschaftler am Fraunhofer FHR.

Wechselwirkungen müssen ausgeschlossen sein

Bei der Arbeit des Projektes gilt es vor allem, Wechselwirkungen zwischen den verschiedenen Signalen der Bauteile zu verhindern: Da die lichtspendenden LEDs hinten im Scheinwerfer liegen, positionieren die Forschenden daher die Lidar-Sensorik an der Ober- und die Radar-Sensorik an der Unterseite innerhalb des Scheinwerfergehäuses. Gleichzeitig soll sichergestellt werden, dass die Strahlen der Sensorik denselben Weg nehmen wie der Lichtstrahl. Ein Problem dabei sind die unterschiedlichen Wellenlängen: Das sichtbare Scheinwerferlicht liegt im Bereich von 400 bis 750 Nanometern, die infraroten Lidar-Strahlen liegen bei 860 bis 1550 Nanometern, während die Radarstrahlen eine Wellenlänge von vier Millimetern aufweisen. „Diese drei Wellenlängen sollen koaxial – also gleichachsig – zusammengeführt werden, wir sprechen daher von einem Multispektral-Combiner“, erklärt Freialdenhoven. Die koaxiale Strahlenführung sei wichtig, um einen Parallaxenfehler zu vermeiden und führe zudem zu Platzeinsparungen im Vergleich zu einer Anordnung nebeneinander.

Fraunhofer Smart Headlights
Über spezielle Spiegelsysteme werden Licht, Lidar und Radar auf eine gemeinsame Achse gebracht. (Bild: Fraunhofer)

Um eine gegenseitige Beeinflussung der Systeme auszuschließen, nutzen die Forscher einen sogenannten Bi-Combiner. Dabei wird für die Kombination aus LED und Lidar-Licht ein speziell beschichteter, di-chroidischer Spiegel eingesetzt, mit dem beide Strahlenbündel über eine wellenlängenspezifische Reflexion auf eine Achse gebracht werden. Gleiches erfolgt an einem zweiten Combiner, der LED, Lidar und Radar entsprechend vereint.

Lidar, Radar und Optik funktionieren am besten zusammen

Doch warum setzen die Forscher überhaupt auf eine Kombination der optischen Systeme, Lidar und Radar? „Jedes einzelne System hat seine Stärken, aber auch seine Schwächen“, erklärt Fraunhofer-Experte Tim Freialdenhoven. So kommen etwa optische Systeme bei schlechten Sichtbedingungen wie Nebel oder Staub schnell an ihre Grenzen, während etwa Radar-Systeme entsprechende Bedingungen nahezu ungehindert durchleuchten können.

Das zentrale Problem des Radars sei hingegen die geringe Klassifikationsfähigkeit: Entsprechende Systeme können zwar erkennen, ob ein Mensch oder ein Baum gescannt wurde, die Genauigkeit der Erfassung ist jedoch bei Lidar-Systemen deutlich höher. „Wir arbeiten zudem daran, die Daten von Radar und Lidar zu fusionieren – was insbesondere in puncto Zuverlässigkeit einen extremen Mehrwert bietet“, ergänzt Freialdenhoven. Ein Patent wurde bereits angemeldet.

Derzeit arbeitet das Team am Aufbau eines Prototyps. Mit Hilfe der Kombination verschiedener Technologien erweitere man die Möglichkeiten der Sensorintegration für Fahrerassistenzsysteme deutlich, heißt es bei der Fraunhofer-Gesellschaft. Kleinere Lichtmodule, kompakte Lidar-Sensoren und ein integriertes Radar erlauben etwa die Umsetzung von Multisensorkonzepten für das autonome Fahren bei begrenztem Bauraum. So können autonome Systeme nicht nur andere Verkehrsteilnehmer erkennen, sondern auch dessen Geschwindigkeit und Entfernung sowie den Winkel, in dem sie zum Auto stehen, erfassen.

Sie möchten gerne weiterlesen?