Bildschirmfoto 2017-05-24 um 09.42.18

(Bild: Continental)

In kleinen Schritten nähert sich die Autoindustrie dem autonomen Fahren. Die Fahrerassistenzsysteme jedes neuen Produktjahrgangs sind ein wenig ausgefeilter und raffinierter als ihre Vorgänger, haben die eine oder andere Fähigkeit drauf, die zuvor nicht verfügbar war. Nicht ein großer, disruptiver Sprung führt ins Reich des autonomen Fahrens, sondern zahlreiche inkrementelle Verbesserungen. Der Weg dahin führt über Fortschritte in der Sensortechnik. Hierbei entfaltet gegenwärtig die Lidar-Sparte eine besondere Dynamik.

Lidar, das ist die Abtastung der Umgebung mittels Infrarotlaserstrahlen. Ins Bewusstsein breiter Kreise der Öffentlichkeit rückte diese Technik mit den ersten Prototypen des autonom fahrenden Google-Autos, jener niedlichen Knutschkugel ohne Lenkrad, dafür aber mit einer Art rotierendem Hut auf dem Dach. Dieser Hut – das war der Lidar-Sensor, in diesem Fall eine Ausführung der US-Firma Velodyne.

Wegen ihrer hohen Auflösung galt sie damals als eine Art Goldstandard der Lidar-Ortungstechnik. Doch wie in der Branche gemunkelt wird, kostete der Sensor allein schon den Gegenwert eines Kleinwagens. Das disqualifizierte ihn für den Serienfahrzeugbau, selbst in der Luxusklasse. Mittlerweile hat Velodyne die Sensoren weiterentwickelt: Sie kommen jetzt ohne bewegliche Teile aus. Das erhöht nicht nur ihre Robustheit, sondern senkt auch die Herstellungskosten auf ein großserienverträgliches Niveau. Erst kürzlich eröffnete der im Silicon Valley angesiedelte Hersteller eine neue Fertigungsstätte. 2018 will er erstmals mehr als eine Million Sensoren produzieren.

So eine Ansage bleibt nicht ohne Reaktion in der Branche: Schon vor einiger Zeit haben die deutschen Zulieferer den Fehdehandschuh aufgenommen. Auf der CES in Las Vegas stellte beispielsweise Continental einen Lidar-Sensor vor, der ebenfalls ohne bewegliche Teile auskommen und trotzdem ein extrem fein auflösendes räumliches Bild liefern soll. Konkurrent ZF hat sich im vergangenen Jahr in den Hamburger Lidar-Spezialisten Ibeo eingekauft, der eine vergleichbare Technik entwickelt. Und auch in den Laboren von Bosch tüfteln die Ingenieure an automobilgeeigneten, weil hochauflösenden und robusten Lidar-Sensoren. Lidar gilt als wichtige Ergänzung des vorherrschenden Sensor-Tandems aus Kamera und Radar.

Manche Autoentwickler sehen es als unentbehrlich für die Zukunft der Fahrerassistenzsysteme, für andere hat es eher den Stellenwert des Nice-to-have-Accessoires. „Wir werden diese Sensoren künftig mehr und mehr auf der Straße sehen“, kommentiert Christoph von Hugo, Leiter aktive Sicherheit bei Daimler. „Aber Lidar ist eine Option, kein Muss. Noch sind die Preise nicht dort, wo sie für alle Anwendungsfälle attraktiv wären.“ Die Hauptlast der Sensorik tragen damit weiterhin Radar und Kamera. Der Trend geht eindeutig zur Ausstattung mit mehreren Radarsensoren.

„Beim Highway Assist – einer der Funktionen der nächsten Generation von Assistenzsystemen – werden fünf Radare eingesetzt“, erläutert Thomas Classen, Leiter Produktmanagement für Fahrerassistenzsysteme bei Bosch. „Je einer an allen Ecken des Fahrzeugs sowie einer mittig in der Front. Daraus lässt sich ein Rundumbild des Fahrzeugumfelds erstellen.“ Die Kamera bleibt der wichtigste Sensor des Autos: Sie liefert die umfangreichsten Informationen. Funktionen wie Fußgänger- oder Radfahrererkennung, das Lesen von Verkehrszeichen und die Identifikation von Fahrbahnmarkierungen werden in erster Linie in der Kamera implementiert. Radar und Lidar liefern zusätzliche Informationen, um die Kamerainformationen abzusichern und auf Plausibilität zu überprüfen.

Die nächste Generation der Fahrerassistenzsysteme wird nicht nur Verkehrszeichen erkennen, sondern auch dazugehörige Einschränkungen wie etwa Geschwindigkeitsbeschränkungen bei Schlechtwetter oder bei Nacht. Zudem rechnen Insider wie Hans-Gerd Krekels, Leiter des Bereichs Active Driver Assistance Systems bei ZF, dass pro Auto in Zukunft nicht nur eine, sondern mehrere Kameras zum Einsatz kommen. Dann kann der Rechner die Bilder mehrerer Quellen zusammenrechnen, um das Umfeld des Autos aus der Vogelperspektive zu zeigen. „Wir rechnen mit sechs bis acht Kameras im Auto“, so Krekels. Schon heute schicken die Kameras nicht alles, was sie sehen, an die Steuergeräte weiter.

Was da im Dachhimmel des Autos die Straße beäugt, verfügt bereits über eine eigene Intelligenz, die es ermöglicht, Objekte zu erkennen. Die Kameras belasten daher den Rechner des Assistenzsystems nicht mit „dummen“ Videodatenströmen, sondern stellen bereits Informationen über Art, Position und Geschwindigkeitsvektor erfasster Objekte zur Verfügung. Damit werden kommende Generationen von Fahrerassistenzsystemen in der Lage sein, Fußgänger, Radfahrer und andere Verkehrsteilnehmer genauer als heute zu erfassen und entsprechende Maßnahmen bis hin zur Notbremsung einzuleiten.

Neben Lidar, Radar und Kamera greifen Fahrzeuge noch auf eine weitere Sensorart zurück: Ultraschallsensoren liefern wichtige Informationen über Hindernisse beim Manövrieren unter beengten Bedingungen, vor allem bei der Rückwärtsfahrt. Diese Fähigkeit dürfte noch an Relevanz gewinnen, sobald die Fahrzeuge vollständig selbsttätig in die Parklücke einfahren oder alleine auf sich gestellt im Parkhaus manövrieren können. Außerdem werden diese Sensoren alternativ zu Radaren eingesetzt, um den toten Winkel von Rückspiegeln zu überwachen.

All diese Einzelinformationen laufen in der Sensordatenfusion zusammen – ein Prozess, der das Können und die Erfahrung der Konstrukteure in besonderer Weise fordert. Jeder Sensortyp weist spezifische Stärken und Schwächen auf – Radar beispielsweise erkennt Geschwindigkeitsvektoren gut und liefert selbst bei schlechtem Wetter noch brauchbare Ergebnisse. Kameras bieten eine hohe räumliche Auflösung, die aber bei Nebel und Schneetreiben nicht zum Tragen kommt. Lidar liegt zwischen Radar und Kameras, liefert recht hoch auflösende Bilder mit Tiefenerkennung und trägt somit wesentlich zum dreidimensionalen Umfeldmodell bei, das ein autonomes Fahrzeug benötigt.

 Um Fehler und Artefakte so weit als möglich auszuschließen und der Automatik eine sichere Grundlage für ihre Fahrentscheidungen zu liefern, werden im Rahmen der Sensordatenfusion die Erkenntnisse der einzelnen Sensoren miteinander verglichen und auf Plausibilität abgeklopft. Zudem werden Redundanzen genutzt, um Daten zu verifizieren und so die Wahrscheinlichkeit für die Korrektheit des Modells möglichst an die 100 Prozent gehen zu lassen. Die eine zentrale Plattform hierfür gibt es nicht – jeder OEM geht eigene Wege. Auch aus der Algorithmik für diese Aufgabe machen die Fahrzeughersteller gerne ein Geschäftsgeheimnis.

Ein wenig immerhin lässt sich Daimler über die Schulter schauen: Die nächste Generation der Fahrerassistenten aus Stuttgart wird Kartendaten in die Sensorfusion einspeisen. „Damit können wir zukünftig viele clevere und komfortable Funktionen anbieten, die gerade auf Landstraßen stark zum Tragen kommen. So können wir Geschwindigkeiten automatisch zum Beispiel an Kurvenradien anpassen oder das Fahrzeug vor Ausfahrten, Kreisverkehren oder Mautstellen entsprechend verlangsamen“, erläutert Daimler-Experte von Hugo.

Die Rechner für Sensorfusion und Umfeldmodellierung haben ordentlich zu tun: Eine halbwegs gut ausgebaute Sensorik flutet nach Berechnungen des Halbleiterherstellers Renesas die Steuerplattform mit bis zu 500 Megabit je Sekunde. Die technische Umsetzung der Sensordatenfusion ist daher äußerst anspruchsvoll und verlangt gebieterisch nach hoher Performance. „Kommt künstliche Intelligenz, etwa als DeepLearning, ins Spiel, bedeutet das noch einmal einen deutlich höheren Aufwand“, kommentiert Boschs Fachmann Classen. „Da kommt man schnell an die Grenzen des technisch Möglichen.“

Das verifizierte Umfeldmodell, angereichert mit dynamischen Daten über die umgebenden Verkehrsteilnehmer, dient anschließend als Grundlage für die Fahrentscheidungen des Computers. Bei der Entwicklung einer zentralen Recheninstanz für diese Aufgabe hat Audi eine Vorreiterrolle übernommen: Die Ingolstädter haben einen Rechner von der Größe einer Pralinenschachtel namens Zentrales Fahrerassistenzsystem (zFAS) ersonnen, die für solche Aufgaben eine – wie der Name schon sagt – zentrale Plattform abgibt. Halbleiterhersteller wie NXP mit seiner BlueBox oder Nvidia mit seinem Drive PX2 geben eine Orientierung, wie diese Plattformen aussehen könnten –mehr aber nicht.

Die Grenzen sind gegenwärtig stark im Fluss. Audi etwa propagiert eine möglichst weitgehende Zentralisierung der Rechenplattformen im Auto – zumindest pflegte der inzwischen ausgeschiedene Elektronik-Chef Ricky Hudy mit Verve für eine solche Zusammenfassung der Bordcomputer zu plädieren. Auch BMW ist dafür bekannt, mit einer Zentralarchitektur zu liebäugeln. Entsprechende Ansätze gibt es auch bei Daimler. Im Dunkel aber liegt einstweilen die Antwort auf die Frage, wie so etwas konkret aussehen wird. Bei der Bereitstellung der erforderlichen Rechenleistung scheint Nvidia jedenfalls gut im Rennen zu liegen – neben Audi und Daimler haben auch Bosch und ZF eine Entwicklungspartnerschaft mit dem kalifornischen Chiphersteller angekündigt. Dabei kommt Nvidia eigentlich aus dem Lager der Grafikspezialisten, aber seine Graphics Processing Units (GPUs) lassen sich auch für die Bewältigung hochgradig parallel ablaufender Prozesse mit hohen Performance-Anforderungen einsetzen. „Die GPUs sind verfügbar, die Software ist verfügbar und mit solchen Prozessoren kann ein Anwender von Skaleneffekten profitieren“, orakelt Thomas Classen.

Dieser Artikel erschien erstmals in carIT 03/2017

Sie möchten gerne weiterlesen?