360-Grad-Detektierung, Hella.

Leistungsfähigkeit, Reichweite und eine kompakte Bauweise sind wichtige Stellhebel bei Sensoren zur 360-Grad-Detektierung und Integration ins moderne Fahrzeug. Bild: Hella

Weltweit ist eine überwiegende Mehrheit gegenüber Fahrerassistenzsystemen aufgeschlossen. Geht es aber um die Automatisierung des Fahrens, verhalten sich insbesondere die Menschen in Deutschland, Frankreich und den USA abwartend. Dies geht aus der aktuellen Continental-Mobilitätsstudie hervor, die das Unternehmen seit 2011 mit dem Marktforscher Infas durchführt. Neben weiteren interessanten Erkenntnissen zeige die neuerliche Befragung aber auch, dass Erlebbarkeit von Systemen Vertrauen schaffen könne, heißt es beim Zulieferer. Mit einer zunehmenden Verbreitung von Fahrerassistenzsystemen werde auch automatisch das Vertrauen in automatisiertes Fahren wachsen, sagt Frank Petznick, Leiter der Geschäftseinheit Fahrerassistenzsysteme bei Continental.

Leistungsfähige Radarsysteme sind gefragt

Was Menschen nicht ohne Verrenkung gelingt, sollen Autos der Gegenwart und Zukunft ganz selbstverständlich beherrschen: die 360-Grad-Wahrnehmung ihrer Umgebung. Sie ist unabdingbare Voraussetzung, um weitere automatisierte Fahrfunktionen zuverlässig zu gewährleisten. Eine wichtige Voraussetzung für sichere und funktionstüchtige Systeme sind hochentwickelte Sensoren und Bildgebungsverfahren, die ein realitätsgetreues Abbild ihrer Umgebung generieren. Bereits aktuelle Advanced Driver Assistance Systems (ADAS) verwenden rund hundert solcher Sensoren, weiß man beim Komponentenanbieter Hamamatsu Photonics.

Radar bietet dabei gute Möglichkeiten, um den Abstand zu einem vorausfahrenden Fahrzeug zu ermitteln, etwa für die automatische Notbremsfunktion. Für komplexere Aufgaben hat sich die 77-GHz-Technologie mit einer HF-Bandbreite von einem Gigahertz durchgesetzt. Sie bietet eine um Faktoren höhere Trennfähigkeit von Objekten als 24-GHz-Radarsensoren. 77 GHz kommt daher seit geraumer Zeit nicht nur für Fern-, sondern auch für Nahbereichsradare zum Einsatz.

Elektronikzulieferer Hella lanciert seine neueste Radartechnologie auf 77-GHz-Basis. Leistungsfähigkeit, Reichweite sowie eine kompakte Bauweise seien die drei wesentlichen Kriterien zur 360-Grad-Detektierung und Integration ins moderne Fahrzeug, hört man aus der Zentrale in Lippstadt. Hella setzt die aktuellen Radarsensoren auf Basis eines modularen und skalierbaren Plattformkonzepts um. Damit sollen sich kundenspezifische Anforderungen flexibel und effizient verwirklichen und sowohl die NCAP-Anforderungen als auch Funktionen des automatisierten Fahrens erfüllen lassen.

Autos müssen mit Verkehrsteilnehmern kommunizieren

Die Bandbreite der Anwendungen reicht von kostenoptimierten Sensoren für klassische Assistenzfunktionen bis hin zu leistungsstarken Varianten, die für höhere Entwicklungsstufen des autonomen Fahrens benötigt werden. Um die Leistungsfähigkeit der Radarplattform noch weiter zu heben, ging Hella eine strategische Partnerschaft mit dem US-amerikanischen Startup Oculii ein. Die Integration einer von Oculii entwickelten Software soll der Leistungsfähigkeit weiteren Schub verleihen. Hella meldete zudem kürzlich die Teilnahme am Forschungsprojekt „Initiative“, bei dem die Frage im Vordergrund steht, wie immer höher automatisierte Fahrzeuge künftig mit anderen Verkehrsteilnehmern kommunizieren können. Untersucht wird im Projekt unter anderem, wie ein autonomes Fahrzeug mittels lichtbasierter Systeme signalisieren kann, dass es einen Fußgänger oder einen Radfahrer wahrgenommen hat und dieser sicher die Straßenseite wechseln kann.

Unter anderem sollen dabei Sensordaten des automatisierten Fahrzeugs sowie der Verkehrsinfrastruktur genutzt werden. Zudem soll im Rahmen des Projektes auch erörtert werden, wie mithilfe einer kamerabasierten künstlichen Intelligenz die Intention der beteiligten Personen sowohl im Fahrzeuginnen- als auch im Verkehrsraum erfasst und in der Kommunikation berücksichtigt werden kann.

Andere Verkehrsteilnehmer mit Licht zu warnen ist indes auch ein Anliegen des Zulieferers Valeo. Bereits auf der Shanghai Auto Show im Frühjahr kündigte das Unternehmen die Entwicklung einer 360-Grad-Lichtlösung an. Dabei handelt es sich um ein das Fahrzeug umlaufendes Lichtband, das Infos im Sichtfeld anderer Verkehrsteilnehmer projizieren und so insbesondere gefährdete Teilnehmer im Straßenverkehr wie Rad- oder Rollerfahrer warnen kann.

Ein Fokus liegt auf Abbiege-Szenarien

Continental arbeitet mit Blick auf die Vision Zero – der Vorstellung vom unfallfreien Fahren – an Abbiegeassistenten mit Radartechnologie. Beim Rechtsabbiegeassistent etwa setzt sie der Zulieferer mit Blick auf die Euro NCAP-Sicherheitsszenarien für 2022 bereits heute in einer neuen Radargeneration ein, die statt der bislang verwendeten 24- auf die 77-Gigahertztechnologie baut. Dadurch könne der Radarsensor die Umgebung in einer deutlich höheren Auflösung und Trennschärfe als bisher erkennen. Auch Bewegungsrichtungen und Geschwindigkeiten soll der 77-GHz-Sensor exakter berechnen. Im Lkw-Bereich ist der Einbau von Abbiegeassistenten bereits seit 2020 für alle neuen Fahrzeugtypen EU-weit Pflicht.

Das Unternehmen hat weltweit inzwischen bereits über 100 Millionen Radarsensoren in den Markt gebracht. Mittlerweile hat der Technologiekonzern die sechste Generation des Fernbereichsradars und Surround-Radars vorgestellt, für die der Produktionsanlauf 2023 geplant ist. Die sensortechnische Herausforderung bei der 360-Grad-Überwachung liegt Continental zufolge in der Platzierung der Systeme hinter den lackierten Stoßfängern, denn Struktur und Lack können Radarsignale beeinflussen. Der Zulieferer hat dafür mehrere zum Patent angemeldete Lösungen parat und seine Systeme so verkleinert, dass sich neue Integrationsmöglichkeiten ergeben. Bei Continental spricht man bei den Abmessungen von einer Reduzierung um 40 Prozent im Vergleich zur fünften Generation.

Die neuen Surround- und Fernbereichsradare arbeiten standardmäßig bei 77 GHz, sie sind jedoch für das Band zwischen 77 und 81 GHz vorbereitet und bieten damit die Vorteile eines größeren Frequenzbandes. Die Surround-Radare haben mit rund 200 Metern wesentlich mehr Reichweite als bisherige Nahbereichsradare. Mit Blick auf den Fernbereichsradar sprechen die Experten von einer Reichweite von rund 250 Metern. Dieser decke vorausschauende Anwendungen für NCAP-Anforderungen bis hin zu automatisierten Fahrfunktionen ab.

Objekterkennung mit Surround-Radaren.
Surround-Radare können Objekte wie querende Fahrzeuge, Motorräder und Radfahrer früh und präzise erkennen. Bild: Continental

Lidar für hochauflösende Nahfelderkennung in Echtzeit

Lidar (Light Detection and Ranging) ist besonders stark bei der Generierung hochauflösender 3D-Informationen in Echtzeit. Anders als beim verwandten Radarsystem erfassen Lidar-Sensoren ihre Umwelt allein mit Hilfe von Licht, das durch einen Fotosensor erfasst wird. Aktuell gibt es zwei Verfahren, das sogenannte Time of Flight, auch TOF oder Laufzeitmessung genannt, oder Frequency-Modulated Continuous Wave (FMCW), welche über Frequenzmodulation funktioniert.

Je umfassender und verlässlicher ein autonomes Fahrzeug die Umgebung erkennen soll, desto wichtiger werden auch die Anzahl sowie eine spezielle Anordnung von Sensoren, betont der Fertiger Osram Opto Semiconductors, der über langjährige Erfahrung in der Entwicklung und Fertigung spezieller Infrarotlaser für Lidarsysteme verfügt. Bei den Lasern stärken die Halbleiterexperten ihr Programm um ein Bauteil, das speziell für die hochauflösende Nahfelderkennung in Lidarsystemen entwickelt wurde. Neben dem weiten Blick nach vorne – mit einem sogenannten Long-Range-Lidar bis etwa 250 Meter – müsse beim autonomen Fahrzeug auch eine verlässliche Erfassung des unmittelbaren Autoumfelds erfolgen, heißt es. Den Bereich sogenannter Short- beziehungsweise Mid-Range-Lidare definiert das Unternehmen bis etwa 90 Meter Entfernung. Diese Systeme können beispielsweise Überholvorgänge auf der Autobahn oder den Stadtverkehr abdecken.

Osram stellte dazu einen einkanaligen Pulslaser vor. Wie auch bei Hella standen bei der Entwicklung des Osram-Produkts die Eckpunkte Leistung und Baugröße im Lastenheft. Die Halbleiterfachleute sprechen von einer verbesserten Strahlqualität und besonders kompakten Abmessungen. Mit lediglich 0,3 mal 0,6 Millimeter seien extrem kompakte Designs für Systemhersteller möglich. Eine Effizienz von rund 30 Prozent soll helfen, die Gesamtkosten des Systems im Betrieb gering zu halten. Mit einer optischen Leistung von 65 Watt bei 20 A habe das Bauteil nicht nur ein Alleinstellungsmerkmal am Markt, es eigne sich auch ideal für die Erfassung der unmittelbaren Fahrzeugumgebung und trage so zu hochauflösenden Bildern für nachgelagerte Systeme bei, heißt es.

Verkehrsszenarien mit Hilfe künstlicher Intelligenz verstehen

Radarsensoren beim Absetzen von Warnungen zu mehr Schnelligkeit verhelfen will man im Projekt HORIS. Die beteiligten Fraunhofer-Institute für Hochfrequenzphysik und Radartechnik (FHR), für Integrierte Schaltungen (IIS) und des IVI-Anwendungszentrum wollen dabei nicht wie bislang alleine auf eine Abstandswarnung im Auto setzen, vielmehr soll hier eine zuverlässige Verhaltensvorhersage im Fokus stehen. Radarsensoren etwa an Bus- und Straßenbahnhaltestellen sollen zunächst an kritischen Punkten in der Infrastruktur verbaut werden und dort wartende Personen im Blick behalten und die Daten an den fließenden Verkehr übermitteln. Mittels künstlicher Intelligenz und einer zusätzlichen Infrarotkamera soll das System künftig nicht nur sehen, dass sich jemand auf das Auto zubewegt, sondern die Szene auch verstehen.

Auf eine objektbasierte Beobachtung setzen auch Experten im Nachbarland Österreich in der Testregion ALP.Lab. Dort werden Verkehrsteilnehmer automatisiert nach Kategorien erkannt, um anonymisierte Echtzeitdaten von realen komplexen Verkehrssituationen zu generieren. Diese Daten können dann von Gemeinden, Verkehrsplanern, F&E-Einrichtungen und in wissenschaftlichen Projekten genutzt werden, um etwa die Straßenverkehrssicherheit zu erhöhen, verbesserte Sensoren für die Objekterkennung zu entwickeln oder effizientere Formen des öffentlichen Verkehrs einzuführen. „Wir montieren die Sensoren moderner Autos auf Straßenmasten, um Unfälle zu sehen, die beinahe passiert wären,“ schildert Gerhard Greiner, ALP.Lab-Geschäftsführer.

Entwicklung im Bereich autoamtsiertes Fahren bei Bosch.
Neben Kamera, Radar und Ultraschall entwickelt Bosch auch einen Fernbereichs-Lidar und setzt damit auf verschiedene Sensorprinzipien. Bild: Bosch

Neue Kamerasysteme bieten dank KI ein Szenenverständnis

Dass ein automatisiertes Fahrzeug alle Fähigkeiten mitbringen muss, die auch ein Mensch zum Autofahren braucht, betont man auch bei Bosch. Dazu zählt dem Zulieferer zufolge das Umfeld wahrzunehmen, Entscheidungen zu treffen sowie Gas geben, bremsen und lenken.  Mit seiner Multifunktionskamera verbindet Bosch aktuell klassische Bildverarbeitungsalgorithmen mit Methoden der künstlichen Intelligenz (KI). Die Kamera verstehe und interpretiere dank KI, was sie sehe, heißt es beim Zulieferer. Dies soll eine zuverlässige Objekterkennung und ein gutes Szenenverständnis möglich machen. Neben Kamera, Radar und Ultraschall entwickelt Bosch auch einen Fernbereichs-Lidar und setzt damit auf verschiedene Sensorprinzipien. Je komplexer die Fahraufgabe, desto wichtiger sei deren Zusammenspiel. Automatisierte Fahrzeuge müssen jederzeit wissen, wo genau sie sich befinden.

Für die hochgenaue Eigenlokalisierung soll ein Paket aus Hardware, Software und Services dienen. Wie Bosch im Umfeld der IAA meldet, nutzt der Bewegungs- und Positionssensor VMPS (Vehicle Motion and Position Sensor) zur exakten Positionsbestimmung Signale der Satellitennavigation und ergänzt diese um Daten eines Korrekturservices sowie um Informationen der Lenkwinkel- und Raddrehzahlsensoren. Der cloudbasierte Kartenservice Bosch Straßensignatur nutzt Daten der Radar- und Videosensoren sowie Fahrzeugbewegungsdaten, um zusätzliche Schichten für hochauflösende Karten zu erstellen. Derzeit fahren in Europa dafür Fahrzeuge des VW-Modells Golf 8 die entsprechenden Informationen ein.

Kombination verschiedener Sensoren ergibt ein rundes Bild

Da sich Fahren ab gewissen Stufen der Automatisierung nicht alleine mit der ein oder anderen Technologie umsetzen lässt, bedarf es einer Kombination unterschiedlicher Sensortypen. Die Wichtigkeit der Integration zeigt auch ein Vorstoß von Continental: Nach wenigen Monaten der Zusammenarbeit mit dem Lidar-Experten AEye meldet der Technikkonzern die Integration der AEye-Fernbereichs-Lidar-Technologie in seine Full-Sensor-Stack-Lösung. Damit schaffe man das erste Full-Stack-System in Automotive-Qualität für automatisierte und autonome Fahranwendungen von Level 2+ bis Level 4, sagen die Experten des Zulieferers. Dieses soll die Radar-, Kamera- und Ultraschalltechnologien im Sensorsystem von Continental ergänzen und eine zuverlässige und redundante Plattform für automatisiertes Fahren schaffen. Ein komplementärer Ansatz soll dabei sicherstellen, dass das System unter allen Umgebungsbedingungen arbeiten könne, auch bei tief stehender Sonne, starkem Regen, dichtem Nebel und kalten oder warmen Temperaturen, heißt es bei Continental.

Damit autonomes Fahren nicht von guten Wetterkonditionen abhängig bleibt, befassen sich Forscher des Massachusetts Institute of Technology (MIT) mit einem Bodenradar und blicken dabei quasi unter den Straßenbelag. Dazu wird die spezifische Beschaffenheit des Straßenuntergrunds, der sich etwa durch Bodendichte, unterschiedliche Gesteine und Versorgungsleitungen definiert, gescannt. Der Untergrund verändert sich im Gegensatz zur Fahrbahn eher wenig. Dort schwinden über die Zeit schon mal Markierungen, der Belag wird geflickt oder Schilder knicken. Zudem benötigen Bodenradarkarten für Lokalisierungszwecke Localizing Groundpenetrating Radar, LGPR, rund 20 Prozent weniger Speicherplatz als konventionelle 2D-Sensorkarten. LGPR könnte künftig als zusätzliches redundantes System zum Einsatz kommen.

Eine der Herausforderungen neuer Technologien im Bereich der Automatisierung des Fahrens ist es, diese für den Massenmarkt tauglich zu machen. Die Erfahrungen in diesem Sektor reichen beim Unternehmen Continental mit Blick auf die Radartechnologie bis ins Jahr 1999 zurück. Basierend auf dieser Expertise will man noch vor Ende 2021 den ersten hochauflösenden Solid-State-3D-Flash-Lidar für den Nahbereich auf den Markt bringen. Erste Muster des neuen HRL131-Fernbereichs-Lidar werden im Continental-Werk in Ingolstadt produziert.

Supercomputer ZF ProAI.
Der Superrechner ProAI ist KI-fähig und soll sich für alle Stufen automatisierten Fahrens von Level 2 bis 5 eignen. Bild: ZF

Die Sensorfusion bedarf eines Superhirns

Die umfangreichen Informationen verschiedener Sensoren müssen klug gebündelt, verarbeitet und im Fahrzeug auf kleinstem Raum in einem Zentralrechner umgesetzt werden. ZF arbeitet diesbezüglich bereits seit geraumer Zeit an einem Hochleistungssystem, dem sogenannten ProAI, den das Unternehmen als Supercomputer beschreibt. In modernen Fahrzeugarchitekturen bilden solche Systeme entweder die Funktionen als Zentralrechner oder auch jene von Zonensteuergeräten ab. ProAI ist den Experten zufolge für alle Stufen des automatisierten Fahrens von Level 2 bis 5 geeignet. Aktuell biete das System eine auf Level 2+ ausgelegte Leistung von 20 Tera-OPS, es könne jedoch auf bis zu 1.000 TOPS skaliert und damit ab Level 3 eingesetzt werden, schildert Christophe Marnat, Executive Vice President der ZF-Division Electronics and Advanced Driver Assist Systems.

Mit Hilfe der grafikprozessorgesteuerten 360-Grad-Fusion soll das System in automatisierten Fahrzeugen sämtliche Sensordaten zusammenbringen und die gesamte Bildverarbeitung übernehmen. Die Abmessungen der Einheit entsprechen aktuell in etwa denen eines iPads. Im Vergleich zum Vorgänger habe man die Rechenleistung um 66 Prozent steigern und den Stromkonsum um bis zu 70 Prozent reduzieren können, heißt es beim Zulieferer. Die KI-Fähigkeiten von ProAI seien für Deep Learning optimiert, das System biete zudem topaktuelle Sicherheitsmechanismen gegen Cyber-Bedrohungen. Dank seines modularen Aufbaus kann der Supercomputer je nach Wunsch mit „System-on-Chip“-Varianten (SoC), also mit Prozessoren verschiedener Hersteller bestückt sowie mit ZF-eigener oder anderweitiger Software betrieben werden. In die Serienproduktion soll ProAI im Jahr 2024 gehen. Sowohl für das Pkw- als auch das Nutzfahrzeugsegment meldet das Unternehmen erste Großaufträge.

Driver Monitoring unerlässlich bis zur Autonomie

Der Weg zur völligen Autonomie des Fahrens, bei dem der Mensch gänzlich aus der Verantwortung für sein Fahrzeug genommen wird, ist noch weit. In den Stufen der (Teil-)Automatisierung müssen sich Automobil und Fahrer die Bälle quasi in einem unmissverständlichen Jonglierspiel zuspielen können. Hierfür werden sogenannte Fahrerbeobachtungssysteme eingesetzt. Zumeist geht es aktuell noch um das Erkennen von Müdigkeit mit Hilfe von Kameras. Für weitere Fortschritte müssen Systeme über die reine Bilderkennung hinaus jedoch auch Aktivitäten des Fahrzeugführers im Kontext interpretieren können.

Am Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung (IOSB) forschen Experten mit Hilfe von Algorithmen und Verfahren des maschinellen Lernens an der Zuordnung von Posen in Echtzeit. Aufnahmen des Fahrers oder der Insassen abstrahiert das System zu einem digitalen Skelett – einer Art Strichmännchen, das die Körperpose der Person nachbildet. Aus der Skelettbewegung und einer ergänzenden Objekterkennung wiederum schließt es auf die Aktivität. Unterstützt werden hierfür klassische Videokameras, Infrarotkameras für die Dunkelheit, sowie 3D-Kameras, die die Entfernung der Objekte zur Kamera messen. „Die Technologie ist bereit für die Vorserie. Wir stehen schon im ersten Kontakt mit Unternehmen, die unsere Technologie nutzen wollen“, sagt Michael Voit, Gruppenleiter am IOSB.

Ein ganzheitlich konstruiertes Endprodukt kündigte der Zulieferer Gentex anlässlich der IAA Mobility an. Das System stellt Bilder zur Analyse visueller Messgrößen des Fahrers zur Verfügung - wie über die Kopfhaltung und Blickrichtung. Neben der Erkennung von Ablenkung und Müdigkeit stelle man mit dem ins Glas des Innenspiegels integrierten Kamerasystem sicher, ob der Fahrer beim Systemausfall/-fehler bereit ist, zur manuellen Steuerung zurückzukehren, heißt es bei Gentex. Das skalierbare System soll sich erweitern lassen. In Ergänzung zum kamerabasierten System entwickle man Innenraumsensoren, die Rauch, Dämpfe, flüchtige organische Verbindungen (VOC) und sonstige Luftschadstoffe im Fahrzeuginneren erkennen. Gentex wendet sich damit auch an Anbieter von Car-Sharing-Diensten oder Mietfahrzeugen, die mit Hilfe dieses System Gewissheit über die Sauberkeit der Fahrzeuge erlangen können.

Occupant-Monitoring-System des Fraunhofer IOSB.
Das Occupant-Monitoring-System des Fraunhofer IOSB erkennt neben der Körperpose aller Insassen auch Aktivitäten und damit zusammenhängende Objekte. Bild: Fraunhofer IOSB/M. Zentsch

Weitere Hintergründe, Analysen und Wissenswertes zum Thema autonomes Fahren lesen Sie diese Woche auch bei all-electronics.de. Die Redaktion der Automobil Elektronik fokussiert sich in ihren Beiträgen unter anderem auf Technologie-Trends und Tools in Themengebieten wie Sensorik, Cybersicherheit oder Car-to-X-Vernetzung.

Kostenlose Registrierung

Newsletter
Bleiben Sie stets zu allen wichtigen Themen und Trends informiert.
Das Passwort muss mindestens acht Zeichen lang sein.

Ich habe die AGB, die Hinweise zum Widerrufsrecht und zum Datenschutz gelesen und akzeptiere diese.

*) Pflichtfeld

Sie sind bereits registriert?