360-Grad Detektierung von Hella.

Leistungsfähigkeit, Reichweite und eine kompakte Bauweise sind wichtige Stellhebel bei Sensoren zur 360-Grad-Detektierung und Integration ins moderne Fahrzeug. (Bild: Hella)

Was Menschen nicht ohne Verrenkung gelingt, sollen Autos der Gegenwart und Zukunft ganz selbstverständlich beherrschen: die 360-Grad-Wahrnehmung ihrer Umgebung. Sie ist unabdingbare Voraussetzung, um automatisierte und autonome Fahrfunktionen zuverlässig zu gewährleisten. Sichere und funktionstüchtige Systeme sind dabei von hochentwickelten Sensoren und Bildgebungsverfahren abhängig, die ein realitätsgetreues Abbild ihrer Umgebung generieren. Bereits aktuelle Advanced Driver Assistance Systems (ADAS) verwenden rund hundert solcher Sensoren.

Ultraschall – die beständige Größe der Sensorik

Ultraschallsysteme kennt man über viele Jahre hinweg zumeist als Parksensoren an der Fahrzeugfront sowie am Heck. Bei Ultraschall werden Schallimpulse ausgesendet und deren Laufzeit zum reflektierenden Objekt beurteilt. Die Technik deckt den knapp bemessenen Kurzbereich auch bei schlechten Sichtverhältnissen zuverlässig ab und gilt als ausgereift. Dies führte dazu, dass zuletzt wenig von großen Weiterentwicklungen zu hören war. Doch der Eindruck täuscht. Die Technologie sei zwar seit der Einführung 1991 im 7er-BMW ausgereift und gehöre heute zur Standardaustattung, eine große Zukunft hat sie dennoch vor sich, heißt es vom Zulieferer Valeo, der die Einführung vor mehr als 30 Jahren für sich in Anspruch nimmt.

So kombiniere man Ultraschall etwa für das Einparken mit Surround-Kameras. "Unsere Ultraschallsysteme liefern aber auch wichtige Informationen für Fahrfunktionen wie ACC Stop&Go oder Blind Spot Detection", betont ein Valeo-Sprecher gegenüber automotiveIT. Im Jahr 2021 brachte Valeo schließlich eine neue Systemgeneration mit völlig neuer Datenschnittstelle zwischen Sensoren und Steuergerät auf den Markt. Sie ermögliche eine Vielzahl neuer Möglichkeiten zur Datenanalyse in der Systemsoftware, darunter erstmals auch KI-basierte Algorithmen, so Valeo. Dies führe zu erheblichen Leistungsverbesserungen sowie neuen Funktionen und mache softwarebasierte Systementwicklungen für viele Jahre möglich.

Welche Sensortypen benötigen autonome Autos?

Ultraschall: Beurteilt die Laufzeit ausgesendeter Schallimpulse zum reflektierenden Objekt. Die Technik deckt einen knapp bemessenen Kurzbereich ab.

 

Radio Detection and Ranging – Radar: Bei dieser elektromagnetischen Sensortechnologie wird das Echo ausgesendeter Funkwellen ausgewertet.

 

Light Detection and Ranging – Lidar: Ein laserbasiertes System, dessen Fotosensoren die Umwelt allein mit Hilfe von Licht erfasst.

 

Kamera: Hohe Videoauflösungen werden mit Bildverarbeitung auf Basis künstlicher Intelligenz kombiniert, um Objekte zu unterscheiden.

Radarsysteme werden immer leistungsfähiger

Bei der elektromagnetischen Sensortechnologie Radar tasten ausgesendete Funkwellen Objekte ab, das Echo eines Gegenstands wird ausgewertet. Sie eignen sich zur Messung von unterschiedlichen Geschwindigkeiten und Entfernungen. Weniger tauglich galten sie bislang für die Klassifizierung von Objekten. Radar bietet von Haus aus gute Möglichkeiten, um den Abstand zu einem vorausfahrenden Fahrzeug zu ermitteln, etwa für die automatische Notbremsfunktion. Für komplexere Aufgaben hat sich die 77-GHz-Technologie mit einer HF-Bandbreite von einem Gigahertz durchgesetzt. Sie bietet eine um Faktoren höhere Trennfähigkeit von Objekten als 24-GHz-Radarsensoren. 77 GHz kommt daher seit geraumer Zeit nicht nur für Fern-, sondern auch für Nahbereichsradare zum Einsatz.

Neue Entwicklungen beim Radar könnten der Technologie im Reigen der Sensorik-Typen zu erheblichem Aufwind verhelfen. So kann 4D Imaging Radar mittlerweile die Umgebung detailliert erfassen, indem es Objekte detektiert, separiert und anschließend klassifiziert. Mit dieser Erweiterung hat Radar nach Ansicht einiger Experten das Potenzial, weit in das Segment der bislang für Lidar reservierten Fähigkeiten vorzustoßen. Im Vergleich zur laserbasierten Alternative gelten sie als kostengünstiger sowie robuster bei schlechten Licht- und Wetterverhältnissen.

Lidar bietet hochauflösende Nahfelderkennung in Echtzeit

Light Detection and Ranging (Lidar) ist besonders prävalent bei der Generierung hochauflösender 3D-Informationen in Echtzeit. Bis zum Jahr 2030 wächst der entsprechende Markt laut Valeo auf über 50 Milliarden US-Dollar. Im Hinblick auf die Lidar-Technologie stehen derzeit zwei Verfahren im Fokus, zum einen die Langzeitmessung, das sogenannte Time of Flight (TOF), sowie Frequency-Modulated Continuous Wave (FMCW), ein Verfahren, das sich der Frequenzmodulation bedient.

Bei der Laufzeitmessung (TOF) werden Laserpulse ausgesendet, die von Objekten reflektiert und von einem Detektor wieder aufgenommen werden. Auf Basis der Länge des Signals werden Entfernungen einzelner Punkte erfasst. Das weit verbreitete System habe jedoch auch Limitierungen, erklärt etwa der Anbieter Blickfeld in einem Blogbeitrag zu den verschiedenen Lidar-Systemen. Dem zugunsten der Reichweite gebündelten Licht seien hinsichtlich der Augensicherheit klare Grenzen gesetzt.

Alternativ kann beim FMCW-Verfahren ein kontinuierlicher Laserstrahl ausgesendet und über deren Frequenzmodulation der Abstand von Objekten erfasst werden. "Der ausgesendete Laserstrahl wird dabei immer wieder moduliert und 'gechirpt', die Frequenz des Signals wird also immer wieder geändert", erklärt Blickfeld-CEO Mathias Müller die Methode. Sobald ein Objekt den Strahl reflektiere, werde die Frequenz des Lichts im Vergleich zum Aussendungszeitpunkt beeinträchtigt. "Daher wird bei der Aufnahme durch den Detektor das zurückkehrende Licht mit gerade ausgesendetem Licht gemischt und der Frequenzunterschied gemessen", erläutert Müller. Die so erfasste Zwischenfrequenz gibt Rückschluss auf Abstände, und mit Hilfe des Doppler-Effekts lässt zudem die Geschwindigkeit von Objekten erfassen.

Doch ist die Frequenzmodulation dem Time-of-Flight-Prinzip grundlegend überlegen? "Das kann man so pauschal nicht sagen. Beide Methoden haben Stärke und Schwächen", gibt Müller zu Bedenken. Das ToF bereits seit vielen Jahren in Lidar-Sensoren eingesetzt wird, während FMCW noch in den Kinderschuhen steckt, sei die Entwicklungsreife ein maßgeblicher Unterschied. FMCW sei komplex und aktuell noch sehr kostspielig, da speziellere Anforderungen an die Laserquelle gestellt werden. Auch Georg List, Vice President Corporate Strategy bei AVL, kann kein eindeutig überlegenes System definieren, da sich die Sensorik sehr schnell weiterentwickle. Der Engineeringexperte sieht künftig ein Nebeneinander vieler Sensorsysteme.

Neue Kamerasysteme bieten dank KI ein Szenenverständnis

Kameras arbeiten heute mit sehr hohen Auflösungen. Die Bildverarbeitung kann Objekte genau einschätzen und unterscheiden. Dies kann zudem mit Hilfe von künstlicher Intelligenz antrainiert werden. Einschränkende Faktoren sind Verschmutzungen der Optik sowie Dunkelheit und Blendung. Dass ein automatisiertes Fahrzeug alle Fähigkeiten mitbringen muss, die auch ein Mensch zum Autofahren braucht, betont man auch bei Bosch. Dazu zählt dem Zulieferer zufolge das Umfeld wahrzunehmen, Entscheidungen zu treffen sowie Gas geben, bremsen und lenken.

Mit seiner Multifunktionskamera verbindet Bosch aktuell klassische Bildverarbeitungsalgorithmen mit Methoden der künstlichen Intelligenz (KI). Die Kamera verstehe und interpretiere dank KI, was sie sehe, heißt es beim Zulieferer. Für die hochgenaue Eigenlokalisierung soll ein Paket aus Hardware, Software und Services dienen. Wie Bosch im Umfeld der letzten IAA meldete, nutzt der Bewegungs- und Positionssensor VMPS (Vehicle Motion and Position Sensor) zur exakten Positionsbestimmung Signale der Satellitennavigation und ergänzt diese um Daten eines Korrekturservices sowie um Informationen der Lenkwinkel- und Raddrehzahlsensoren. Der cloudbasierte Kartenservice Bosch Straßensignatur nutzt Daten der Radar- und Videosensoren sowie Fahrzeugbewegungsdaten, um zusätzliche Schichten für hochauflösende Karten zu erstellen. Derzeit fahren in Europa dafür Fahrzeuge des VW-Modells Golf 8 die entsprechenden Informationen ein.

Die Kombination verschiedener Sensoren ergibt ein rundes Bild

Da sich Fahren ab gewissen Stufen der Automatisierung nicht alleine mit der ein oder anderen Technologie umsetzen lässt, bedarf es einer Kombination unterschiedlicher Sensortypen. Die Wichtigkeit der Integration zeigt auch ein Vorstoß von Continental: Nach wenigen Monaten der Zusammenarbeit mit dem Lidar-Experten AEye meldete der Technikkonzern die Integration der AEye-Fernbereichs-Lidar-Technologie in seine Full-Sensor-Stack-Lösung. Damit schaffe man das erste Full-Stack-System in Automotive-Qualität für automatisierte und autonome Fahranwendungen von Level 2+ bis Level 4, sagen die Experten des Zulieferers.

Die umfangreichen Informationen verschiedener Sensoren müssen klug gebündelt, verarbeitet und im Fahrzeug auf kleinstem Raum in einem Zentralrechner umgesetzt werden. ZF arbeitet diesbezüglich bereits seit geraumer Zeit an einem Hochleistungssystem, dem sogenannten ProAI, den das Unternehmen als Supercomputer beschreibt. ProAI ist den Experten zufolge für alle Stufen des automatisierten Fahrens von Level 2 bis 5 geeignet. Aktuell biete das System eine auf Level 2+ ausgelegte Leistung von 20 Tera-OPS, es könne jedoch auf bis zu 1.000 TOPS skaliert und damit ab Level 3 eingesetzt werden. Mit Hilfe der grafikprozessorgesteuerten 360-Grad-Fusion soll das System in automatisierten Fahrzeugen sämtliche Sensordaten zusammenbringen und die gesamte Bildverarbeitung übernehmen. In die Serienproduktion soll ProAI im Jahr 2024 gehen.

Der Vehicle Motion Domain Controller von ZF
Der Hochleistungsrechner VMD-Controller wurde für die Integration von Fahrzeugfunktionen in verschiedenen Bereichen, einschließlich
Karosserie- und Energiemanagement entwickelt. (Bild: ZF)

Neu im Verbund ist der Vehicle Motion Domain Controller VMD, ein spezialisiertes Steuergerät, mit dem ZF die Supercomputer-Familie erweitert. VMD kann alle Fahrzeugbewegungen steuern und bedient ZF zufolge den Trend zu Softwaredefinierten Fahrzeugen mit Echtzeitfunktionen und -anwendungen mit einem Hochleistungsschwellenwert von 55.000 DMIPS (Dhraystone million instructions per second, deutsch: Millionen Instruktionen pro Sekunde nach dem Dhraystone-Benchmark).

Blickfeld stellte auf der CES 2022 ein sogenanntes Seamless-Integration-Konzept vor, das durch ein intelligentes Arrangement der einzelnen Elemente dazu beitragen soll, gerade die markenspezifischen Charakteristika zu betonen. Bei seinem Konzept setzt das Unternehmen auf Vision Mini-Sensoren, die eine nahtlose Integration und eine subtile Einbindung in das Fahrzeug an mehreren Montagepositionen wie den Scheinwerfern, Heckleuchten und Seitenspiegeln erlauben sollen. Die Anordnung ermögliche eine vollständige Rundumsicht und stelle somit einen entscheidenden Baustein auf dem Weg zu sicherer fahrerassistierter und autonomer Mobilität dar, heißt es bei Blickfeld. Beim Unternehmen spricht man von einer nahezu unsichtbaren Einbettung von Lidar-Sensoren.

Driver Monitoring unerlässlich bis zur Autonomie

Der Weg zur völligen Autonomie des Fahrens, bei dem der Mensch gänzlich aus der Verantwortung für sein Fahrzeug genommen wird, ist noch weit. In den Stufen der (Teil-)Automatisierung müssen sich Automobil und Fahrer die Bälle quasi in einem unmissverständlichen Jonglierspiel zuspielen können. Hierfür werden sogenannte Fahrerbeobachtungssysteme eingesetzt. Zumeist geht es aktuell noch um das Erkennen von Müdigkeit mit Hilfe von Kameras. Für weitere Fortschritte müssen Systeme über die reine Bilderkennung hinaus jedoch auch Aktivitäten des Fahrzeugführers im Kontext interpretieren können.

Ab 2024 schreibt die Europäische Kommission in den Typgenehmigungsanforderungen der GSR Systeme zur Fahrer- und Fahrzeugüberwachung für neue Zulassungen vor, um beispielsweise Müdigkeit oder mangelnde Aufmerksamkeit des Fahrers zu erkennen. Diese weitreichenden Gesetzesänderungen werden von einem weiteren regulatorischen Treiber begleitet: Die Euro NCAP Organisation wird den Einbau von Innenraumkamerasystemen bereits ab 2023 mit Punkten belohnen.

Dies weiß man freilich auch beim Zulieferer Continental, dessen Geschäftsfeld Vehicle Networking and Information (VNI) Mitte Oktober 2021 die Entwicklung einer integrierte Lösung für Innenraumsensorik vorstellte. Mit der Objekterfassung des gesamten Fahrzeuginnenraums in Echtzeit gehe man über das reine Fahrermonitoring hinaus und biete so einen weiteren Baustein für künftige Mobilitätsmodelle wie automatisiertes oder autonomes Fahren.

Continental Cabin Sensing
Ab 2024 schreibt die Europäische Kommission in den Typgenehmigungsanforderungen der GSR Systeme zur Fahrer- und Fahrzeugüberwachung für neue Zulassungen vor. (Bild: Continental)

Sie möchten gerne weiterlesen?