360-Grad Detektierung von Hella.

Leistungsfähigkeit, Reichweite und eine kompakte Bauweise sind wichtige Stellhebel bei Sensoren zur 360-Grad-Detektierung und Integration ins moderne Fahrzeug. Bild: Hella

Weltweit ist eine überwiegende Mehrheit gegenüber Fahrerassistenzsystemen aufgeschlossen. Geht es aber um die Automatisierung des Fahrens, verhalten sich insbesondere die Menschen in Deutschland, Frankreich und den USA abwartend. Dies geht aus der aktuellen Continental-Mobilitätsstudie hervor, die das Unternehmen seit 2011 mit dem Marktforscher Infas durchführt. Neben weiteren interessanten Erkenntnissen zeige die neuerliche Befragung aber auch, dass Erlebbarkeit von Systemen Vertrauen schaffen könne, heißt es beim Zulieferer. Mit einer zunehmenden Verbreitung von Fahrerassistenzsystemen werde auch automatisch das Vertrauen in automatisiertes Fahren wachsen, sagt Frank Petznick, Leiter der Geschäftseinheit Fahrerassistenzsysteme bei Continental.

Leistungsfähige Radarsysteme sind gefragt

Was Menschen nicht ohne Verrenkung gelingt, sollen Autos der Gegenwart und Zukunft ganz selbstverständlich beherrschen: die 360-Grad-Wahrnehmung ihrer Umgebung. Sie ist unabdingbare Voraussetzung, um weitere automatisierte Fahrfunktionen zuverlässig zu gewährleisten. Eine wichtige Voraussetzung für sichere und funktionstüchtige Systeme sind hochentwickelte Sensoren und Bildgebungsverfahren, die ein realitätsgetreues Abbild ihrer Umgebung generieren. Bereits aktuelle Advanced Driver Assistance Systems (ADAS) verwenden rund hundert solcher Sensoren, weiß man beim Komponentenanbieter Hamamatsu Photonics.

Radar bietet dabei gute Möglichkeiten, um den Abstand zu einem vorausfahrenden Fahrzeug zu ermitteln, etwa für die automatische Notbremsfunktion. Für komplexere Aufgaben hat sich die 77-GHz-Technologie mit einer HF-Bandbreite von einem Gigahertz durchgesetzt. Sie bietet eine um Faktoren höhere Trennfähigkeit von Objekten als 24-GHz-Radarsensoren. 77 GHz kommt daher seit geraumer Zeit nicht nur für Fern-, sondern auch für Nahbereichsradare zum Einsatz.

Elektronikzulieferer Hella lanciert seine neueste Radartechnologie auf 77-GHz-Basis. Leistungsfähigkeit, Reichweite sowie eine kompakte Bauweise seien die drei wesentlichen Kriterien zur 360-Grad-Detektierung und Integration ins moderne Fahrzeug, hört man aus der Zentrale in Lippstadt. Hella setzt die aktuellen Radarsensoren auf Basis eines modularen und skalierbaren Plattformkonzepts um. Damit sollen sich kundenspezifische Anforderungen flexibel und effizient verwirklichen und sowohl die NCAP-Anforderungen als auch Funktionen des automatisierten Fahrens erfüllen lassen.

Autos müssen mit Verkehrsteilnehmern kommunizieren

Die Bandbreite der Anwendungen reicht von kostenoptimierten Sensoren für klassische Assistenzfunktionen bis hin zu leistungsstarken Varianten, die für höhere Entwicklungsstufen des autonomen Fahrens benötigt werden. Um die Leistungsfähigkeit der Radarplattform noch weiter zu heben, ging Hella eine strategische Partnerschaft mit dem US-amerikanischen Startup Oculii ein. Die Integration einer von Oculii entwickelten Software soll der Leistungsfähigkeit weiteren Schub verleihen. Hella meldete zudem kürzlich die Teilnahme am Forschungsprojekt „Initiative“, bei dem die Frage im Vordergrund steht, wie immer höher automatisierte Fahrzeuge künftig mit anderen Verkehrsteilnehmern kommunizieren können. Untersucht wird im Projekt unter anderem, wie ein autonomes Fahrzeug mittels lichtbasierter Systeme signalisieren kann, dass es einen Fußgänger oder einen Radfahrer wahrgenommen hat und dieser sicher die Straßenseite wechseln kann.

Welche Sensortypen benötigen autonome Autos?

Ultraschall: Bei Ultraschallsystemen werden Schallimpulse ausgesendet und deren Laufzeit zum reflektierenden Objekt beurteilt. Die Technik deckt einen knapp bemessenen Kurzbereich auch bei Dunkelheit und Nebel zuverlässig ab.

 

Radio Detection and Ranging – Radar: Bei der elektromagnetischen Sensortechnologie tasten ausgesendete Funkwellen Objekte ab, das Echo eines Gegenstands wird ausgewertet. Sogenannte Short-Range- sowie Long- oder Full-Range-Radare eignen sich zur Messung von Geschwindigkeiten und Entfernungen. Weniger tauglich sind sie für die Klassifizierung von Objekten.

 

Light Detection and Ranging – Lidar: Lidar-Sensoren erfassen ihre Umwelt allein mit Hilfe von Licht, das durch einen Fotosensor erfasst wird. Aktuell sind Time of Flight (TOF), die Laufzeitmessung, sowie Frequency-Modulated Continuous Wave (FMCW), das über Frequenzmodulation funktioniert. Lidar kann Objekte auch bei Nacht präzise einordnen und ist relevant für den Sprung von SAE-Level 2 auf höhere Automatisierungsstufen.

 

Kamera: Kameras arbeiten heute mit sehr hohen Auflösungen. Die Bildverarbeitung kann Objekte genau einschätzen und unterscheiden. Dies kann zudem mit Hilfe von künstlicher Intelligenz antrainiert werden. Einschränkende Faktoren sind Verschmutzungen der Optik sowie Dunkelheit und Blendung.

Unter anderem sollen dabei Sensordaten des automatisierten Fahrzeugs sowie der Verkehrsinfrastruktur genutzt werden. Zudem soll im Rahmen des Projektes auch erörtert werden, wie mithilfe einer kamerabasierten künstlichen Intelligenz die Intention der beteiligten Personen sowohl im Fahrzeuginnen- als auch im Verkehrsraum erfasst und in der Kommunikation berücksichtigt werden kann.

Andere Verkehrsteilnehmer mit Licht zu warnen ist indes auch ein Anliegen des Zulieferers Valeo. Bereits auf der Shanghai Auto Show im Frühjahr kündigte das Unternehmen die Entwicklung einer 360-Grad-Lichtlösung an. Dabei handelt es sich um ein das Fahrzeug umlaufendes Lichtband, das Infos im Sichtfeld anderer Verkehrsteilnehmer projizieren und so insbesondere gefährdete Teilnehmer im Straßenverkehr wie Rad- oder Rollerfahrer warnen kann.

Ein Fokus liegt auf Abbiege-Szenarien

Continental arbeitet mit Blick auf die Vision Zero – der Vorstellung vom unfallfreien Fahren – an Abbiegeassistenten mit Radartechnologie. Beim Rechtsabbiegeassistent etwa setzt sie der Zulieferer mit Blick auf die Euro NCAP-Sicherheitsszenarien für 2022 bereits heute in einer neuen Radargeneration ein, die statt der bislang verwendeten 24- auf die 77-Gigahertztechnologie baut. Dadurch könne der Radarsensor die Umgebung in einer deutlich höheren Auflösung und Trennschärfe als bisher erkennen. Auch Bewegungsrichtungen und Geschwindigkeiten soll der 77-GHz-Sensor exakter berechnen. Im Lkw-Bereich ist der Einbau von Abbiegeassistenten bereits seit 2020 für alle neuen Fahrzeugtypen EU-weit Pflicht.

Das Unternehmen hat weltweit inzwischen bereits über 100 Millionen Radarsensoren in den Markt gebracht. Mittlerweile hat der Technologiekonzern die sechste Generation des Fernbereichsradars und Surround-Radars vorgestellt, für die der Produktionsanlauf 2023 geplant ist. Die sensortechnische Herausforderung bei der 360-Grad-Überwachung liegt Continental zufolge in der Platzierung der Systeme hinter den lackierten Stoßfängern, denn Struktur und Lack können Radarsignale beeinflussen. Der Zulieferer hat dafür mehrere zum Patent angemeldete Lösungen parat und seine Systeme so verkleinert, dass sich neue Integrationsmöglichkeiten ergeben. Bei Continental spricht man bei den Abmessungen von einer Reduzierung um 40 Prozent im Vergleich zur fünften Generation.

Die neuen Surround- und Fernbereichsradare arbeiten standardmäßig bei 77 GHz, sie sind jedoch für das Band zwischen 77 und 81 GHz vorbereitet und bieten damit die Vorteile eines größeren Frequenzbandes. Die Surround-Radare haben mit rund 200 Metern wesentlich mehr Reichweite als bisherige Nahbereichsradare. Mit Blick auf den Fernbereichsradar sprechen die Experten von einer Reichweite von rund 250 Metern. Dieser decke vorausschauende Anwendungen für NCAP-Anforderungen bis hin zu automatisierten Fahrfunktionen ab.

Das branchenweit erste, rein digitale Radarsystem stellte Magna auf der IAA Mobility in München vor. Der Fokus bei der Entwicklung des Icon Digital Radar lag vereinfacht gesagt auf besserem Sehen, wodurch ein Fahrzeug potenzielle Gefahren früher erkennen soll, etwa Fußgänger in einer Entfernung bis 150 Meter. Erzielt werde ein Niveau, das es in automobilen Anwendungen so bislang nicht gab, heißt es beim Zulieferer. Mit der Expertise bei Kameras, Sensoren, Solid-State Lidar und Domain-Controllern sieht man sich in der Position, die Technologie nahtlos zu integrieren. Die Markteinführung soll im kommenden Jahr erfolgen.

Objekterkennung mit Surround-Radaren.
Surround-Radare können Objekte wie querende Fahrzeuge, Motorräder und Radfahrer früh und präzise erkennen. Bild: Continental

Lidar für hochauflösende Nahfelderkennung in Echtzeit

Lidar (Light Detection and Ranging) ist besonders stark bei der Generierung hochauflösender 3D-Informationen in Echtzeit. Anders als beim verwandten Radarsystem erfassen Lidar-Sensoren ihre Umwelt allein mit Hilfe von Licht, das durch einen Fotosensor erfasst wird. Aktuell gibt es zwei Verfahren, das sogenannte Time of Flight, auch TOF oder Laufzeitmessung genannt, oder Frequency-Modulated Continuous Wave (FMCW), welche über Frequenzmodulation funktioniert.

Je umfassender und verlässlicher ein autonomes Fahrzeug die Umgebung erkennen soll, desto wichtiger werden auch die Anzahl sowie eine spezielle Anordnung von Sensoren, betont der Fertiger Osram Opto Semiconductors, der über langjährige Erfahrung in der Entwicklung und Fertigung spezieller Infrarotlaser für Lidarsysteme verfügt. Bei den Lasern stärken die Halbleiterexperten ihr Programm um ein Bauteil, das speziell für die hochauflösende Nahfelderkennung in Lidarsystemen entwickelt wurde. Neben dem weiten Blick nach vorne – mit einem sogenannten Long-Range-Lidar bis etwa 250 Meter – müsse beim autonomen Fahrzeug auch eine verlässliche Erfassung des unmittelbaren Autoumfelds erfolgen, heißt es. Den Bereich sogenannter Short- beziehungsweise Mid-Range-Lidare definiert das Unternehmen bis etwa 90 Meter Entfernung. Diese Systeme können beispielsweise Überholvorgänge auf der Autobahn oder den Stadtverkehr abdecken.

Osram stellte dazu einen einkanaligen Pulslaser vor. Wie auch bei Hella standen bei der Entwicklung des Osram-Produkts die Eckpunkte Leistung und Baugröße im Lastenheft. Die Halbleiterfachleute sprechen von einer verbesserten Strahlqualität und besonders kompakten Abmessungen. Mit lediglich 0,3 mal 0,6 Millimeter seien extrem kompakte Designs für Systemhersteller möglich. Eine Effizienz von rund 30 Prozent soll helfen, die Gesamtkosten des Systems im Betrieb gering zu halten. Mit einer optischen Leistung von 65 Watt bei 20 A habe das Bauteil nicht nur ein Alleinstellungsmerkmal am Markt, es eigne sich auch ideal für die Erfassung der unmittelbaren Fahrzeugumgebung und trage so zu hochauflösenden Bildern für nachgelagerte Systeme bei, heißt es.

Schub fürs autonome Fahren mit Valeos Generation 3-Lidar

Am Vormittag des 23. November verspricht Geoffrey Bouquot, Senior Vice-President R&D and Strategy von Valeo, einen entscheidenden technologischen Fortschritt in Richtung autonomer Fahrzeuge. Im Rahmen einer Pressekonferenz stellt der CTO des französischen Zulieferers die dritte Generation seines scannenden Lidar vor, mit dem das Unternehmen im Jahr 2024 auf den Markt kommen will. Das System soll einzigartige Werte in Bezug auf Reichweite, Auflösung und Frame Rate bieten und ein 3D-Echtzeitbild der Fahrzeugumgebung mit 4,5 Millionen Pixeln und 25 Bildern pro Sekunde rekonstruieren. Im Vergleich zur vorherigen Generation wurde die Auflösung Valeo zufolge um das zwölffache, die Reichweite um das dreifache und der Blickwinkel um das 2,5-fache vergrößert.

Laut Valeo bedeutet dies, dass das Fahren in vielen Situationen – von Automatisierungsgrad 2 aufwärts – an das Fahrzeug delegiert werden kann, einschließlich Autobahnfahrten bis 130km/h. Das System erfasse und klassifiziere alle Objekte in der Umgebung des Autos, auch bei schlechten Licht- und Sichtverhältnissen. Ein Highlight dabei sei das Tracken von Fahrzeugen in der Umgebung, selbst wenn diese sich nicht mehr im Sichtfeld des Fahrers befinden. Dazu nutze es Algorithmen, um deren weitere Bewegungen zu antizipieren und gegebenenfalls Sicherheitsmanöver auszulösen. Der Lidar warne nicht nur das eigene Fahrzeug, sondern – via Cloud – auch andere Fahrzeuge. Wie der Lidar-Experte des Hauses, Clément Nouvel, erläutert, sei ein hohes Maß an Validierungsleistung für das System erforderlich. Man plane zudem eine konstante Weiterentwicklung des Systems.

Wie man beim Zulieferer weiter betont, sei man das erste und ist bis heute einzige Unternehmen, das einen scannenden Lidar in industriellem Maßstab herstelle. Bei Valeo verweist man in diesem Zusammenhang auf bereits über 150.000 produzierte Einheiten. Dem Unternehmen zufolge wächst der Lidar-Markt bis 2030 auf über 50 Milliarden US-Dollar. Das neue Lidar der dritten Generation soll in dieser Entwicklung eine entscheidende Rolle spielen. Die entsprechenden Systeme des Zulieferers werden im bayerischen Wemding produziert. Dort, so heißt es, montiere man die Komponenten mit einer Präzision im Mikrometerbereich.

Lidar-Montage bei Valeo.
Valeos Lidar der dritten Generation kann Fahrzeuge tracken und nutzt Algorithmen, um ihre weiteren Bewegungen zu antizipieren. Die neuen Systeme sollen 2024 auf den Markt kommen (Bild: Valeo)

Verkehrsszenarien mit Hilfe künstlicher Intelligenz verstehen

Radarsensoren beim Absetzen von Warnungen zu mehr Schnelligkeit verhelfen will man im Projekt HORIS. Die beteiligten Fraunhofer-Institute für Hochfrequenzphysik und Radartechnik (FHR), für Integrierte Schaltungen (IIS) und des IVI-Anwendungszentrum wollen dabei nicht wie bislang alleine auf eine Abstandswarnung im Auto setzen, vielmehr soll hier eine zuverlässige Verhaltensvorhersage im Fokus stehen. Radarsensoren etwa an Bus- und Straßenbahnhaltestellen sollen zunächst an kritischen Punkten in der Infrastruktur verbaut werden und dort wartende Personen im Blick behalten und die Daten an den fließenden Verkehr übermitteln. Mittels künstlicher Intelligenz und einer zusätzlichen Infrarotkamera soll das System künftig nicht nur sehen, dass sich jemand auf das Auto zubewegt, sondern die Szene auch verstehen.

Auf eine objektbasierte Beobachtung setzen auch Experten im Nachbarland Österreich in der Testregion ALP.Lab. Dort werden Verkehrsteilnehmer automatisiert nach Kategorien erkannt, um anonymisierte Echtzeitdaten von realen komplexen Verkehrssituationen zu generieren. Diese Daten können dann von Gemeinden, Verkehrsplanern, F&E-Einrichtungen und in wissenschaftlichen Projekten genutzt werden, um etwa die Straßenverkehrssicherheit zu erhöhen, verbesserte Sensoren für die Objekterkennung zu entwickeln oder effizientere Formen des öffentlichen Verkehrs einzuführen. „Wir montieren die Sensoren moderner Autos auf Straßenmasten, um Unfälle zu sehen, die beinahe passiert wären,“ schildert Gerhard Greiner, ALP.Lab-Geschäftsführer.

Entwicklung im Bereich autoamtsiertes Fahren bei Bosch.
Neben Kamera, Radar und Ultraschall entwickelt Bosch auch einen Fernbereichs-Lidar und setzt damit auf verschiedene Sensorprinzipien. Bild: Bosch

Neue Kamerasysteme bieten dank KI ein Szenenverständnis

Dass ein automatisiertes Fahrzeug alle Fähigkeiten mitbringen muss, die auch ein Mensch zum Autofahren braucht, betont man auch bei Bosch. Dazu zählt dem Zulieferer zufolge das Umfeld wahrzunehmen, Entscheidungen zu treffen sowie Gas geben, bremsen und lenken.  Mit seiner Multifunktionskamera verbindet Bosch aktuell klassische Bildverarbeitungsalgorithmen mit Methoden der künstlichen Intelligenz (KI). Die Kamera verstehe und interpretiere dank KI, was sie sehe, heißt es beim Zulieferer. Dies soll eine zuverlässige Objekterkennung und ein gutes Szenenverständnis möglich machen. Neben Kamera, Radar und Ultraschall entwickelt Bosch auch einen Fernbereichs-Lidar und setzt damit auf verschiedene Sensorprinzipien. Je komplexer die Fahraufgabe, desto wichtiger sei deren Zusammenspiel. Automatisierte Fahrzeuge müssen jederzeit wissen, wo genau sie sich befinden.

Für die hochgenaue Eigenlokalisierung soll ein Paket aus Hardware, Software und Services dienen. Wie Bosch im Umfeld der IAA meldet, nutzt der Bewegungs- und Positionssensor VMPS (Vehicle Motion and Position Sensor) zur exakten Positionsbestimmung Signale der Satellitennavigation und ergänzt diese um Daten eines Korrekturservices sowie um Informationen der Lenkwinkel- und Raddrehzahlsensoren. Der cloudbasierte Kartenservice Bosch Straßensignatur nutzt Daten der Radar- und Videosensoren sowie Fahrzeugbewegungsdaten, um zusätzliche Schichten für hochauflösende Karten zu erstellen. Derzeit fahren in Europa dafür Fahrzeuge des VW-Modells Golf 8 die entsprechenden Informationen ein.

Kombination verschiedener Sensoren ergibt ein rundes Bild

Da sich Fahren ab gewissen Stufen der Automatisierung nicht alleine mit der ein oder anderen Technologie umsetzen lässt, bedarf es einer Kombination unterschiedlicher Sensortypen. Die Wichtigkeit der Integration zeigt auch ein Vorstoß von Continental: Nach wenigen Monaten der Zusammenarbeit mit dem Lidar-Experten AEye meldet der Technikkonzern die Integration der AEye-Fernbereichs-Lidar-Technologie in seine Full-Sensor-Stack-Lösung. Damit schaffe man das erste Full-Stack-System in Automotive-Qualität für automatisierte und autonome Fahranwendungen von Level 2+ bis Level 4, sagen die Experten des Zulieferers. Dieses soll die Radar-, Kamera- und Ultraschalltechnologien im Sensorsystem von Continental ergänzen und eine zuverlässige und redundante Plattform für automatisiertes Fahren schaffen. Ein komplementärer Ansatz soll dabei sicherstellen, dass das System unter allen Umgebungsbedingungen arbeiten könne, auch bei tief stehender Sonne, starkem Regen, dichtem Nebel und kalten oder warmen Temperaturen, heißt es bei Continental.

Damit autonomes Fahren nicht von guten Wetterkonditionen abhängig bleibt, befassen sich Forscher des Massachusetts Institute of Technology (MIT) mit einem Bodenradar und blicken dabei quasi unter den Straßenbelag. Dazu wird die spezifische Beschaffenheit des Straßenuntergrunds, der sich etwa durch Bodendichte, unterschiedliche Gesteine und Versorgungsleitungen definiert, gescannt. Der Untergrund verändert sich im Gegensatz zur Fahrbahn eher wenig. Dort schwinden über die Zeit schon mal Markierungen, der Belag wird geflickt oder Schilder knicken. Zudem benötigen Bodenradarkarten für Lokalisierungszwecke Localizing Groundpenetrating Radar, LGPR, rund 20 Prozent weniger Speicherplatz als konventionelle 2D-Sensorkarten. LGPR könnte künftig als zusätzliches redundantes System zum Einsatz kommen.

Eine der Herausforderungen neuer Technologien im Bereich der Automatisierung des Fahrens ist es, diese für den Massenmarkt tauglich zu machen. Die Erfahrungen in diesem Sektor reichen beim Unternehmen Continental mit Blick auf die Radartechnologie bis ins Jahr 1999 zurück. Basierend auf dieser Expertise will man noch vor Ende 2021 den ersten hochauflösenden Solid-State-3D-Flash-Lidar für den Nahbereich auf den Markt bringen. Erste Muster des neuen HRL131-Fernbereichs-Lidar werden im Continental-Werk in Ingolstadt produziert.

Supercomputer ZF ProAI.
Der Superrechner ProAI ist KI-fähig und soll sich für alle Stufen automatisierten Fahrens von Level 2 bis 5 eignen. Bild: ZF

Die Sensorfusion bedarf eines Superhirns

Die umfangreichen Informationen verschiedener Sensoren müssen klug gebündelt, verarbeitet und im Fahrzeug auf kleinstem Raum in einem Zentralrechner umgesetzt werden. ZF arbeitet diesbezüglich bereits seit geraumer Zeit an einem Hochleistungssystem, dem sogenannten ProAI, den das Unternehmen als Supercomputer beschreibt. In modernen Fahrzeugarchitekturen bilden solche Systeme entweder die Funktionen als Zentralrechner oder auch jene von Zonensteuergeräten ab. ProAI ist den Experten zufolge für alle Stufen des automatisierten Fahrens von Level 2 bis 5 geeignet. Aktuell biete das System eine auf Level 2+ ausgelegte Leistung von 20 Tera-OPS, es könne jedoch auf bis zu 1.000 TOPS skaliert und damit ab Level 3 eingesetzt werden, schildert Christophe Marnat, Executive Vice President der ZF-Division Electronics and Advanced Driver Assist Systems.

Mit Hilfe der grafikprozessorgesteuerten 360-Grad-Fusion soll das System in automatisierten Fahrzeugen sämtliche Sensordaten zusammenbringen und die gesamte Bildverarbeitung übernehmen. Die Abmessungen der Einheit entsprechen aktuell in etwa denen eines iPads. Im Vergleich zum Vorgänger habe man die Rechenleistung um 66 Prozent steigern und den Stromkonsum um bis zu 70 Prozent reduzieren können, heißt es beim Zulieferer. Die KI-Fähigkeiten von ProAI seien für Deep Learning optimiert, das System biete zudem topaktuelle Sicherheitsmechanismen gegen Cyber-Bedrohungen. Dank seines modularen Aufbaus kann der Supercomputer je nach Wunsch mit „System-on-Chip“-Varianten (SoC), also mit Prozessoren verschiedener Hersteller bestückt sowie mit ZF-eigener oder anderweitiger Software betrieben werden. In die Serienproduktion soll ProAI im Jahr 2024 gehen. Sowohl für das Pkw- als auch das Nutzfahrzeugsegment meldet das Unternehmen erste Großaufträge.

Driver Monitoring unerlässlich bis zur Autonomie

Der Weg zur völligen Autonomie des Fahrens, bei dem der Mensch gänzlich aus der Verantwortung für sein Fahrzeug genommen wird, ist noch weit. In den Stufen der (Teil-)Automatisierung müssen sich Automobil und Fahrer die Bälle quasi in einem unmissverständlichen Jonglierspiel zuspielen können. Hierfür werden sogenannte Fahrerbeobachtungssysteme eingesetzt. Zumeist geht es aktuell noch um das Erkennen von Müdigkeit mit Hilfe von Kameras. Für weitere Fortschritte müssen Systeme über die reine Bilderkennung hinaus jedoch auch Aktivitäten des Fahrzeugführers im Kontext interpretieren können.

Am Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung (IOSB) forschen Experten mit Hilfe von Algorithmen und Verfahren des maschinellen Lernens an der Zuordnung von Posen in Echtzeit. Aufnahmen des Fahrers oder der Insassen abstrahiert das System zu einem digitalen Skelett – einer Art Strichmännchen, das die Körperpose der Person nachbildet. Aus der Skelettbewegung und einer ergänzenden Objekterkennung wiederum schließt es auf die Aktivität. Unterstützt werden hierfür klassische Videokameras, Infrarotkameras für die Dunkelheit, sowie 3D-Kameras, die die Entfernung der Objekte zur Kamera messen. „Die Technologie ist bereit für die Vorserie. Wir stehen schon im ersten Kontakt mit Unternehmen, die unsere Technologie nutzen wollen“, sagt Michael Voit, Gruppenleiter am IOSB.

Ein ganzheitlich konstruiertes Endprodukt kündigte der Zulieferer Gentex anlässlich der IAA Mobility an. Das System stellt Bilder zur Analyse visueller Messgrößen des Fahrers zur Verfügung - wie über die Kopfhaltung und Blickrichtung. Neben der Erkennung von Ablenkung und Müdigkeit stelle man mit dem ins Glas des Innenspiegels integrierten Kamerasystem sicher, ob der Fahrer beim Systemausfall/-fehler bereit ist, zur manuellen Steuerung zurückzukehren, heißt es bei Gentex. Das skalierbare System soll sich erweitern lassen. In Ergänzung zum kamerabasierten System entwickle man Innenraumsensoren, die Rauch, Dämpfe, flüchtige organische Verbindungen (VOC) und sonstige Luftschadstoffe im Fahrzeuginneren erkennen. Gentex wendet sich damit auch an Anbieter von Car-Sharing-Diensten oder Mietfahrzeugen, die mit Hilfe dieses System Gewissheit über die Sauberkeit der Fahrzeuge erlangen können.

Occupant-Monitoring-System des Fraunhofer IOSB.
Das Occupant-Monitoring-System des Fraunhofer IOSB erkennt neben der Körperpose aller Insassen auch Aktivitäten und damit zusammenhängende Objekte. Bild: Fraunhofer IOSB/M. Zentsch

Miniaturisierte Systeme scannen das Interieur

Ab 2024 schreibt die Europäische Kommission in den Typgenehmigungsanforderungen der GSR Systeme zur Fahrer- und Fahrzeugüberwachung für neue Zulassungen vor, um beispielsweise Müdigkeit oder mangelnde Aufmerksamkeit des Fahrers zu erkennen. Diese weitreichenden Gesetzesänderungen werden von einem weiteren regulatorischen Treiber begleitet: Die Euro NCAP Organisation wird den Einbau von Innenraumkamerasystemen bereits ab 2023 mit Punkten belohnen. Dies weiß man freilich auch beim Zulieferer Continental, dessen Geschäftsfeld Vehicle Networking and Information (VNI) Mitte Oktober 2021 die Entwicklung einer integrierte Lösung für Innenraumsensorik vorstellte. Mit der Objekterfassung des gesamten Fahrzeuginnenraums in Echtzeit gehe man über das reine Fahrermonitoring hinaus und biete so einen weiteren Baustein für künftige Mobilitätsmodelle wie automatisiertes oder autonomes Fahren.

Erstmals integrieren die Entwickler die Kamera direkt ins Display, statt in die Lenksäule oder das Kombiinstrument. Dies bedeute eine extreme Miniaturisierung der Technologie, was bei der Positionierung ganz neue Möglichkeiten eröffne, so Ulrich Lüders, Leiter Strategie und Portfolio im Geschäftsbereich Human Machine Interface bei Continental. Die neue Lösung soll zuverlässig lebende Objekte im Fahrzeug erkennen, egal ob es sich bei ihnen um Erwachsene, Kinder oder Tiere handelt. „Der Fokus unserer Entwicklung lag auf der Erkennung lebender Objekte. Dafür detektiert unser Cabin Sensing unter anderem die Atmung des Kindes, identifiziert es somit als lebende Person und schlägt Alarm. Fehlwarnungen sind nahezu ausgeschlossen“, erläutert Daniel Naujack, Produktmanager Interior Camera & Cabin Sensing bei Continental.

Die Rückgabe der Fahraufgabe an den Fahrer sicher gestalten

Eine weitere wichtige Rolle übernimmt die Innenraumsensorik laut Continental indes auf dem Weg zum autonomen Fahren. So werde es immer wieder Verkehrssituationen geben, die erfordern, dass die Fahraufgabe vom automatisierten System zurück an den Fahrer gegeben werde. Diese Übergabe sicher zu gestalten, sei eine entscheidende Aufgabe, die selbstfahrende Autos meistern müssen. Im Bereich des autonomen Fahrens kommt den Vehicle Networking and Informationdem-Experten zufolge dem Cabin Sensing ebenfalls eine wichtige Rolle zu, damit etwa Robo-Taxis jederzeit wissen, wie es ihren Passagieren geht.

Continental Cabin Sensing
Ab 2024 schreibt die Europäische Kommission in den Typgenehmigungsanforderungen der GSR Systeme zur Fahrer- und Fahrzeugüberwachung für neue Zulassungen vor. (Bild: Continental)

Umfeldsensoren vollautonomer Fahrzeuge müssen robust sein

Die Sensorik aus Kameras, Radar, Lidar oder Ultraschall muss zuverlässig bei allen Licht-, Sicht- und Witterungsverhältnissen arbeiten. Daran, die sichere Nutzung von automatisierten Fahrfunktionen auch bei widrigen Umwelteinflüssen zu ermöglichen, arbeiten Forscher des Heinz Nixdorf Instituts der Universität Paderborn und des Fraunhofer-Instituts für Entwurfstechnik Mechatronik IEM mit Industriepartnern im Projekt „Robustheit von Sensoren und Sensorsystemen gegenüber Umweltbedingungen für hochautomatisiertes Fahren“ daran. Das Projekt wird vom Bundesministerium für Wirtschaft und Energie (BMWi) mit 2,81 Millionen Euro gefördert.

Die Wissenschaftler entwickeln dazu virtuelle Umgebungen, in denen sie eine verlässliche Umfeldsensorik für hoch- und vollautonome Fahrzeuge testen, um diese auf Basis der Ergebnisse zu verbessern. Aus der erarbeiteten Simulationsumgebung heraus können bestimmte Gefahrensituationen und Unfallszenarien mit in die Untersuchung einbezogen werden, die durch reale Tests aus Sicherheitsgründen nicht erprobt werden könnten, heißt es von Seiten der Wissenschaftler. Außerdem seien die Tests durch die Simulationen schnell umsetzbar, kosteneffizient und reproduzierbar. „Wir arbeiten daran, Sensoren autonomer Fahrzeuge so robust zu gestalten, dass sie für die SAE-Level 4 und 5, also für hoch- und vollautomatisierte Fahrzeuge, genutzt werden können. Mit unserem Projekt wollen wir einen Beitrag dazu leisten, solche Fahrzeuge zu entwickeln und in Zukunft auf die Straßen zu bringen“, sagt Nico Rüddenklau, wissenschaftlicher Mitarbeiter der Fachgruppe „Regelungstechnik und Mechatronik“ unter der Leitung von Prof. Dr. Ansgar Trächtler am Heinz Nixdorf Institut.

Kostenlose Registrierung

Bleiben Sie stets zu allen wichtigen Themen und Trends informiert.
Das Passwort muss mindestens acht Zeichen lang sein.
*

Ich habe die AGB, die Hinweise zum Widerrufsrecht und zum Datenschutz gelesen und akzeptiere diese.

*) Pflichtfeld

Sie sind bereits registriert?