Mitsubishi_Robust-Sensing3_

 Mit Hilfe von mathematischen Verfahren soll das sogennante „Robust Sensing“ die Erkennungs-Genauigkeit bei dichtem Nebel oder starkem Regen deutlich verbessern. (Bild: Mitsubishi)

Die Orientierung und sichere Manövrierbarkeit von autonomen Fahrzeugen ist eine deutliche Herausforderung für die Entwicklungsingenieure dieser Zukunfts-Technologien. Während die Fahrzeug-Navigation mit Hilfe von präziseren GPS-Systemen bereits bis auf wenige Zentimeter genau möglich ist, muss das Fahrzeug darüber hinaus aber auch genau wissen, welche Objekte in dessen unmittelbarer Umgebung anzutreffen sind. Das ist vor allem dann wichtig, wenn es sich um Gegenstände oder Personen handelt, die in direkter Fahrtrichtung vor dem Fahrzeug sind. Hierzu sind nach wie vor leistungsstarke akkurate Sensor-Systeme mit Realtime-Auswerte-Programmen erforderlich.

Besonders kritisch sind für diese Systeme vor allem der Spurwechsel oder plötzlich vor dem Fahrzeug auftauchende Objekte. Für die Erkennung und korrekte Klassifizierung der Eigenschaften aller Umgebungs-Objekte nutzen die Fahrzeuge drei unabhängige Systeme-Kategorien: Millimeter-Radar, Kameras und Lidar. Jedes dieser Sensorsysteme hat seine eigene Erfassungs-Technologie – und folglich seine eigene Erkennungswahrscheinlichkeit für die zugehörigen Objekt-Parameter, wie Geschwindigkeit, Breite, Ausrichtung und Entfernung.

Bei guter Sicht und gutem Wetter sind die Systeme praktisch redundant, da sie nahezu identische Informationen liefern. Doch das ändert sich schlagartig bei schlechtem Wetter, wenn die Kameras kaum noch etwas sehen und auch die Durchdringung der Radar- und Laserwellen stark eingeschränkt ist. Das Lidar ist beispielsweise im Nebel kaum hilfreich, denn das in der Luft schwebende Wasser absorbiert die Pulslasersignale.

„Robust Sensing“ lautet der Oberbegriff, mit dem man daran arbeitet, mit Hilfe von mathematischen Verfahren die Erkennungs-Genauigkeit bei dichtem Nebel oder starkem Regen deutlich zu verbessern. „Die Analyse und Bestimmung von 3D-Objekten ist mit den heutigen Sensoren zwar möglich, doch sie ist sehr rechenintensiv und je nach Sensor auch relativ fehlerhaft“, sagt Prof. Yi Fang von der New York University, der an verschiedenen mathematischen Modellen arbeitet um diesen Problemen zu begegnen.

Auch in der Industrie wird hieran intensiv geforscht. Mitsubishi Electric beispielsweise, verknüpft die Daten der einzelnen Sensoren mit der spezifischen Erkennungs-Wahrscheinlichkeit eines im Voraus befindlichen Objekts. Diese Daten werden dann unmittelbar in Echtzeit analysiert, um so eine aggregierte Wahrscheinlichkeit über die Objekt-Parameter zu erhalten. Diese ist dann wesentlich präzisier, als jeder einzelne Wert.

Die neue Software wurde bereits am Japan Automobile Research Institute mit realen Fahrzeugen und einem autonomen Notbremssystem (AEB) bei schlechtem Wetter erprobt. Beispielsweise mit einem stehenden Objekten auf der Fahrbahn, starkem Regen (80 Millimeter pro Stunde) und einer Fahrzeug-Geschwindigkeit von 40 Kilometer pro Stunde. Aufgrund der erfolgreichen Objekt-Erkennung konnte das AEB-System eine Notbremsung rechtzeitig auslösen.

Auch im dichten Nebel, mit einer Sichtweite von nur 15 Meter und einer Geschwindigkeit von 15 Kilometer pro Stunde, kam das Fahrzeug rechtzeitig zum Stehen. Selbst bei Nacht und Regen, oder wenn die Kamera durch tiefstehende Sonne, oder entgegenkommende Scheinwerferlichter geblendet ist, hat das AEB-System erfolgreich reagiert. Bis 2023 soll diese Technologie soweit ausgereift sein, dass sie an alle interessierten Autohersteller und Zulieferer vermarktet werden kann.

Hier gibt es weitere Einblicke in die Themenfelder Navigation und Objekterkennung bei autonomen Pkw.

Sie möchten gerne weiterlesen?