Leistungsfähigkeit, Reichweite und eine kompakte Bauweise sind wichtige Stellhebel bei Sensoren zur 360-Grad-Detektierung und Integration ins moderne Fahrzeug.(Bild: Hella)
Die Zukunft automatisierter Fahrfunktionen hängt von der Sensorik ab. Besonders Radar-, Lidar- und KI-gestützte Kamerasysteme treiben aktuell die Entwicklung voran und ebnen den Weg von Level 2+ bis Level 4.
Anzeige
Was Menschen nicht ohne Verrenkung gelingt, sollen Autos der Gegenwart und Zukunft ganz selbstverständlich beherrschen: die 360-Grad-Wahrnehmung ihrer Umgebung. Sie ist unabdingbare Voraussetzung, um automatisierte und autonome Fahrfunktionen zuverlässig zu gewährleisten. Sichere und funktionstüchtige Systeme sind dabei von hochentwickelten Sensoren und Bildgebungsverfahren abhängig, die ein realitätsgetreues Abbild ihrer Umgebung generieren. Aktuelle Advanced Driver Assistance Systems (ADAS) verwenden bereits rund hundert solcher Sensoren.
Ultraschall als beständige Größe der Sensorik
Anzeige
Ultraschallsensoren gehören seit den frühen 1990er-Jahren zur Standardausstattung moderner Fahrzeuge – eingeführt 1991 im BMW 7er, inzwischen millionenfach verbaut. Ursprünglich vor allem als Einparkhilfe bekannt, hat sich die Technologie zu einer verlässlichen Kurzstrecken-Sensorik entwickelt, die auch bei widrigen Sichtverhältnissen zuverlässig arbeitet. Ihre Stärken liegen in geringen Kosten, robuster Bauweise und hoher Marktdurchdringung.
Doch die Rolle von Ultraschall geht heute weit über das klassische Einparken hinaus. Zulieferer wie Valeo kombinieren die Technologie mit Surround-Kameras und nutzen sie für Blind-Spot-Erkennung, ACC Stop&Go sowie zunehmend für automatisierte Parkfunktionen. Mit der 2021 eingeführten Systemgeneration schuf Valeo eine neue Datenschnittstelle, die erstmalsKI-basierte Algorithmen für die Signalverarbeitung erlaubt und die Integration in zentrale Steuergeräte erleichtert. Damit eröffnen sich softwareseitig neue Möglichkeiten – von intelligenter Umfeldmodellierung bis hin zu lernenden Systemen für automatisierte Fahr- und Parkanwendungen.
Im strategischen Kontext autonomer Fahrzeuge bleibt Ultraschall damit eine Schlüsselsensorik für den Nahbereich, insbesondere im Bereich Automated Valet Parking (AVP), das aktuell von Herstellern wie Mercedes-Benz, BMW und Zulieferern wie Bosch vorangetrieben wird. Während Radar, Kamera und Lidar in höheren Geschwindigkeitsbereichen dominieren, sorgt Ultraschall für die präzise Umfeldwahrnehmung im unmittelbaren Fahrzeugumfeld und sichert damit die letzte Lücke auf dem Weg zum hoch- und vollautomatisierten Fahren.
Bei der elektromagnetischen Sensortechnologie Radar tasten ausgesendete Funkwellen Objekte ab und das Echo eines Gegenstands wird ausgewertet. Sie eignen sich zur Messung von unterschiedlichen Geschwindigkeiten und Entfernungen. Weniger tauglich galten sie bislang für die Klassifizierung von Objekten. Radar bietet von Haus aus gute Möglichkeiten, um den Abstand zu einem vorausfahrenden Fahrzeug zu ermitteln, etwa für die automatische Notbremsfunktion. Für komplexere Aufgaben hat sich die 77-GHz-Technologie mit einer HF-Bandbreite von einem Gigahertz durchgesetzt. Sie bietet eine um Faktoren höhere Trennfähigkeit von Objekten als 24-GHz-Radarsensoren. 77 GHz kommt daher seit geraumer Zeit nicht nur für Fern-, sondern auch für Nahbereichsradare zum Einsatz.
Neue Entwicklungen beim Radar könnten der Technologie im Reigen der Sensorik-Typen zu erheblichem Aufwind verhelfen. So kann 4D Imaging Radar mittlerweile die Umgebung detailliert erfassen, indem es Objekte detektiert, separiert und anschließend klassifiziert. Mit dieser Erweiterung hat Radar nach Ansicht einiger Experten das Potenzial, weit in das Segment der bislang für Lidar reservierten Fähigkeiten vorzustoßen. Auch andere Hersteller setzen inzwischen auf 4D-Imaging-Radar. So nutzt etwa Mercedes-Benz die Technologie im Drive-Pilot-System, während Volvo, Polestar und Lucid ähnliche Radarlösungen für ihre Fahrassistenz- und Automatisierungsfunktionen angekündigt haben. Zulieferer wie Bosch, Continental sowie Start-ups wie Arbe Robotics oder Uhnder treiben die Serienentwicklung ebenfalls voran. Im Vergleich zur laserbasierten Alternative gelten sie als kostengünstiger sowie robuster bei schlechten Licht- und Wetterverhältnissen.
Anzeige
Diese Sensortypen benötigen autonome Autos
Ultraschall: Beurteilt die Laufzeit ausgesendeter Schallimpulse zum reflektierenden Objekt. Die Technik deckt einen knapp bemessenen Kurzbereich ab.
Radio Detection and Ranging – Radar: Bei dieser elektromagnetischen Sensortechnologie wird das Echo ausgesendeter Funkwellen ausgewertet.
Light Detection and Ranging – Lidar: Ein laserbasiertes System, dessen Fotosensoren die Umwelt allein mit Hilfe von Licht erfasst.
Kamera: Hohe Videoauflösungen werden mit Bildverarbeitung auf Basis künstlicher Intelligenz kombiniert, um Objekte zu unterscheiden.
Schon geraume Zeit betont man beim Zulieferer Valeo die Relevanz von Imaging-Radar für die Autonomiestufen Level 3 und höher. Im Sommer 2025 nun konnte das französische Unternehmen, das viele der modernen Sensorik-Systeme im bayerischen Wemding produziert, einen großen Auftrag für sein Imaging-Radarsystem verkünden. Die Neuentwicklung wurde speziell für hohe Autonomiestufen entwickelt, bei denen herkömmliches Radar nicht ausreicht. In Kombination mit Kameras und Lidar soll dieses neuartige Radarsystem das unbeaufsichtigte Fahren auf Autobahnen (Highway Pilot) bei 130 km/h unterstützen – auch ohne vorausfahrendes Fahrzeug.
Valeo übernimmt die Entwicklung, Validierung und Produktion des neuartigen Systems, das dem Anbieter zufolge die Leistungsanforderungen für bedingt automatisiertes Fahren (SAE Level 3) erfüllt. Im Rahmen des neuen Auftrags, der 2028 in die Serienfertigung münden soll, zeichnet der Zulieferer für das Systemdesign verantwortlich und garantiert die Einhaltung der neuesten und anspruchsvollsten Software- und Hardwarespezifikationen einschließlich funktionaler Sicherheit und Cybersicherheit.
Lidar bietet hochauflösende Nahfelderkennung in Echtzeit
Light Detection and Ranging (Lidar) gilt heute als Schlüsselsensor für die hochauflösende Umfelderkennung. Mit der Fähigkeit, präzise 3D-Informationen in Echtzeit zu erzeugen, ist Lidar in vielen Level-3- und Level-4-Szenarien unverzichtbar. Marktstudien erwarten bis 2030 ein Volumen zwischen 30 und 40 Milliarden US-Dollar, einzelne Anbieter wie Valeo prognostizieren sogar bis zu 50 Milliarden – ein Hinweis auf die enormen Wachstumserwartungen.
Derzeit stehen zwei Verfahren im Zentrum der Entwicklung: Time of Flight (ToF) und Frequency-Modulated Continuous Wave (FMCW). Bei ToF werden Laserpulse ausgesendet, reflektiert und vom Detektor wieder aufgenommen, sodass sich die Entfernung einzelner Punkte präzise messen lässt. Diese Technologie ist seit Jahren in Serienfahrzeugen etabliert, etwa im Mercedes EQS (Valeo Scala 2) oder bei Modellen asiatischer Hersteller wie XPeng und Nio. Ihre Schwäche liegt in der begrenzten Reichweite, da die Intensität des Laserlichts aus Gründen der Augensicherheit nicht beliebig erhöht werden darf.
Anzeige
Das FMCW-Verfahren setzt dagegen auf einen kontinuierlich ausgesendeten, frequenzmodulierten Laserstrahl. „Der Laserstrahl wird moduliert und ‚gechirpt‘ – sobald ein Objekt reflektiert, ergibt der Frequenzunterschied Rückschlüsse auf Distanz und Geschwindigkeit“, erläutert Blickfeld-CEO Mathias Müller. Der Vorteil: Neben der Entfernung lässt sich auch die Geschwindigkeit von Objekten direkt messen, und die Technik gilt als robuster bei Sonnenlicht oder Nebel.
Ob FMCW das ToF-Prinzip jedoch ablösen kann, ist offen. „Das kann man so pauschal nicht sagen. Beide Methoden haben Stärken und Schwächen“, betont Müller. Während ToF seit Jahren in Serie eingesetzt wird, steckt FMCW noch in den Kinderschuhen – die Technologie ist komplex, teuer und stellt hohe Anforderungen an die Laserquelle. Auch Georg List, Vice President Corporate Strategy bei AVL, sieht kein eindeutig überlegenes System: Die schnelle Weiterentwicklung der Sensorik spreche eher für ein Nebeneinander mehrerer Verfahren – ToF als etablierte Basis und FMCW als vielversprechende Zukunftstechnologie, insbesondere für Robotaxi- und Level-4-Szenarien.
Neue Kamerasysteme bieten dank KI ein Szenenverständnis
Anzeige
Kameras sind die am weitesten verbreitete Sensortechnologie im Fahrzeug und bilden in allen Fahrassistenzsystemen die Basis für die Umfelderkennung. Mit ihren hohen Auflösungen erfassen sie Objekte präzise und können diese mithilfe künstlicher Intelligenz nicht nur erkennen, sondern auch interpretieren. Damit rücken sie in Richtung eines Szenenverständnisses, das weit über die reine Objektdetektion hinausgeht – etwa wenn ein System antizipiert, dass ein Fußgänger im Begriff ist, die Fahrbahn zu betreten.
Herausforderungen wie Verschmutzung, Blendung oder Dunkelheit bleiben, doch die Industrie begegnet ihnen mit technischen Lösungen: Linsenheizungen, Reinigungsdüsen, hydrophobe Beschichtungen und KI-gestützte Bildverbesserung sichern die Funktionsfähigkeit auch bei widrigen Bedingungen. Für Bosch sind Kameras daher ein unverzichtbarer Baustein hochautomatisierter Systeme. Der Zulieferer kombiniert in seiner Multifunktionskamera klassische Bildverarbeitungsalgorithmen mit modernen Deep-Learning-Methoden.
Für die hochgenaue Eigenlokalisierung hat Bosch ein Gesamtpaket aus Hardware, Software und Cloud-Diensten geschnürt. Der Vehicle Motion and Position Sensor (VMPS) verarbeitet GNSS-Signale, ergänzt diese durch Daten von Raddrehzahlsensoren und Lenkwinkelerfassung sowie durch einen Korrekturservice. Parallel sammelt der cloudbasierte Dienst Bosch Straßensignatur Daten aus Radar- und Videosensoren sowie Fahrzeugbewegungen, um Schicht für Schicht eine dynamisch aktualisierte HD-Karte zu erstellen. Dabei arbeitet Bosch eng mit Partnern wie TomTom und HERE zusammen, um die Crowd-Datenflüsse ganzer Flotten nutzbar zu machen.
Anzeige
Damit wird klar: Kameras bleiben aufgrund ihrer geringen Kosten und hohen Verfügbarkeit ein zentraler Sensor, entfalten ihr volles Potenzial im autonomen Fahren jedoch erst im Zusammenspiel mit Radar, Lidar und Cloud-Daten.
Der Weg zum vollautonomen Fahren, bei dem der Mensch gänzlich aus der Verantwortung genommen wird, ist noch weit. In den aktuellen Automatisierungsstufen müssen sich Fahrer und Fahrzeug die Kontrolle zuverlässig teilen – ein Balanceakt, der ohne Driver-Monitoring-Systeme (DMS) nicht funktioniert. Heute geht es längst nicht mehr nur um die Erkennung von Müdigkeit: Moderne Systeme erfassen Blickrichtung, Kopf- und Handposition und interpretieren das Verhalten des Fahrers im Kontext der Fahrsituation.
Der regulatorische Druck ist hoch. Seit 2024 schreibt die EU-General Safety Regulation (GSR II) für alle neuen Typgenehmigungen DMS-Systeme verpflichtend vor, ab 2026 gilt die Pflicht für sämtliche Neuwagen. Parallel vergibt Euro NCAP seit 2023 Zusatzpunkte für Fahrzeuge mit Innenraumkameras. Damit wird Fahrerüberwachung nicht nur zu einem Sicherheits- und Komfortthema, sondern zu einem zentralen Faktor für Typgenehmigung, Versicherbarkeit und Marktzugang.
Zulieferer wie Continental, Bosch, Valeo, Seeing Machines oder Smart Eye arbeiten an umfassenden Lösungen, die weit über die reine Fahrerbeobachtung hinausgehen. So stellte Continental bereits 2021 eine integrierte Innenraumsensorik vor, die neben der Fahrerüberwachung auch Insassen- und Objekterkennung umfasst – ein Baustein für künftige Mobilitätsmodelle und Level-3/4-Systeme. OEMs wie Mercedes, BMW, Stellantis oder Tesla integrieren DMS mittlerweile serienmäßig, teilweise kombiniert mit Funktionen wie Gestensteuerung oder Vitaldaten-Monitoring. Das sind deutlich Signale dafür, dass Fahrerüberwachungssysteme sind nicht mehr optional ist, sondern sie entwickeln sich zu einem strategischen Differenzierungs- und Compliance-Faktor. Sie sichern den rechtlichen Rahmen für hochautomatisierte Systeme und eröffnen zugleich neue Möglichkeiten für Komfort- und Gesundheits-Features im softwaredefinierten Fahrzeug.
Ab 2024 schreibt die Europäische Kommission in den Typgenehmigungsanforderungen der GSR Systeme zur Fahrer- und Fahrzeugüberwachung für neue Zulassungen vor.(Bild: Continental)
Die Kombination verschiedener Sensoren ergibt ein rundes Bild
Keine einzelne Sensortechnologie reicht aus, um automatisiertes Fahren ab Level 3 zuverlässig zu ermöglichen. Erst die Fusion verschiedener Sensortypen – von Kamera und Radar über Lidar bis hin zu Ultraschall – liefert ein konsistentes Bild der Fahrzeugumgebung. Zulieferer investieren daher massiv in integrierte Full-Stack-Lösungen: Continental etwa hat die Lidar-Technologie des Partners AEye in seine Sensorarchitektur eingebunden und positioniert sich damit im Wettbewerb mit Valeo, Bosch und ZF. Ziel ist ein durchgängiges Portfolio aus Hardware, Software und Systemintegration, das OEMs die gesamte Spannbreite von Level 2+ bis Level 4 bietet.
Die Herausforderung liegt dabei nicht nur in der Sensorik selbst, sondern in der Rechenarchitektur. Systeme wie der ZF ProAI-Supercomputer bündeln die Datenströme in einer zentralen Einheit, die von 20 bis zu 1.000 TOPS skaliert werden kann – ausreichend, um auch Level-3-Anwendungen in Serie zu bringen. Ergänzt wird die Plattform durch den Vehicle Motion Domain Controller (VMD), der sämtliche Fahrzeugbewegungen in Echtzeit steuert und als Baustein für die Software-defined-Vehicle-Architektur dient. Damit werden Sensorfusion und Fahrzeugsteuerung in einer gemeinsamen, skalierbaren Infrastruktur vereint.
Ein weiterer Trend ist die Design-Integration von Sensoren: Was einst als Messekonzept vorgestellt wurde, ist heute Realität. Lidar-Systeme wandern unauffällig in Scheinwerfer, Heckleuchten oder Seitenspiegel – sichtbar etwa bei Modellen wie dem Volvo EX90, Polestar 4 oder Lotus Eletre. Diese „unsichtbare Sensorik“ ermöglicht eine nahtlose Fahrzeuggestaltung, ohne Abstriche bei der Rundumsicht zu machen. Damit wird ersichtlich: Sensorfusion ist längst mehr als ein technisches Detail. Sie entscheidet darüber, wer im globalen Wettbewerb der Zulieferer und OEMs künftig die Kontrolle über die End-to-End-Architekturen des automatisierten Fahrens behält und damit über die Fähigkeit, Fahrfunktionen nicht nur sicher, sondern auch skalierbar und markendifferenzierend auf die Straße zu bringen.