Was bedeutet ADAS – Teil 2

13.04.2021 10:31 Von Lukas

In unserem letzten Blogbeitrag zum Thema Fahrerassistenzsysteme - „Was bedeutet ADAS?“ - haben wir erklärt, was ADAS-Systeme sind und wieso sie als treibende Faktoren für die Entwicklung des autonomen Fahrens an Bedeutung gewinnen. In diesem Artikel wollen wir der Frage nachgehen,  welche Hoffnungen im autonomen Fahren heute realistisch sind und ob ADAS-Systeme den Verkehr zukünftig sicherer machen werden. Dafür werden wir die Daten und Fakten zu dem Thema genau unter die Lupe nehmen und werfen außerdem einen kritischen Blick auf Kameras, Radar-, und LiDAR-Sensoren, die zur sicheren Erfassung der Umgebung unverzichtbar für das autonome Fahren sind.

Zu Teil 1
Wie sicher sind Fahrerassistenzsysteme heute?

Die Zukunft der Automotivebranche setzt auf ADAS-Systeme. Dabei gehen die Experten davon aus, dass die Fahrerassistenzsysteme und autonomen Fahrzeuge von morgen das Fahren sicherer machen werden. Doch stimmt das überhaupt? 

Laut einer Studie von LexisNexis Risk Solutions wirken sich bereits die heutzutage verbauten ADAS-Systeme merklich auf die Sicherheit aus. So sind Fahrzeuge mit ADAS-Systemen 27% seltener in Unfälle involviert, bei denen es zu Personenschaden kommt. Bei Unfällen mit Sachschaden sind es 19% weniger als bei herkömmlichen Fahrzeugen ohne Fahrerassistenzsysteme. 

Auch die Resultate der Studie des Institute for Highway Safety, bei der zwei gleiche Fahrzeugmodelle mit und ohne ADAS-System verglichen wurden, belegen diese These. Die Studie untersuchte die Unfallstatistik eines Fahrzeugs mit toter-Winkel-Überwachung, mit der eines Fahrzeuges ohne ADAS-System. Die Ergebnisse zeigen, dass die Fahrzeugmodelle mit Tot-Winkel-Überwachung bis zu 14% seltener in Unfällen verwickelt waren als die Modelle ohne Assistenzsystem.

LIDAR-Sensoren als Schlüsseltechnologie

Alleine im Jahr 2020 wurden insgesamt 8,7 Milliarden US-Dollar für Sensoren von ADAS-Systemen und der  dazugehörigen Datenverarbeitung ausgegeben. Yole Développement - Analysten erwarten, dass diese Zahl bis 2025 auf 22,4 Milliarde US-Dollar steigen könnte. Die Investitionen verteilen sich hauptsächlich auf vier verschiedene Bereiche:

  • LIDAR
  • RADAR
  • Datenverarbeitung
  • Kamera-Modul 

Noch sind solche Sensoren zu teuer, um in einem handelsüblichen Auto verbaut zu werden. Ein LIDAR Sensor kann bis zu 10.000 Euro kosten und die Herstellung bringt extrem lange Wartezeiten mit sich. Die Kosten werden zwar mit voranschreitender Technologie sinken, doch bis LIDAR-Sensoren in Mittelklassefahrzeugen verbaut werden können, wird es noch etwas dauern.

Systemübergreifendes Auswerten der Daten durch Sensorfusion

Daher stellt sich die Frage, ob einfache Kameras und Radarsysteme nicht ausreichen würden, um die Umgebung vollständig zu überwachen. Die Antwort auf diese Frage ist nicht ganz einfach zu beantworten. Denn jeder Sensortyp bringt spezifische Stärken und Schwächen mit sich. Eine Kamera ist ideal, um Straßenschilder zu erkennen. Voraussetzung ist jedoch eine gut ausgeleuchtete Umgebung, um Daten effizient erfassen zu können. RADAR-Sensoren basieren auf dem Prinzip von elektromagnetischen Wellen, was zu Problemen bei der Fußgängererkennung im Straßenverkehr mit sich bringt. Menschen reflektieren die elektromagnetischen Wellen der Radarsensoren nur geringfügig, weswegen der Sensor den Menschen schlechter erkennt als ein LIDAR-Sensor. Zusätzlich haben die Radarsensoren im Vergleich zum LIDAR ein deutlich erhöhtes Rauschen, was die Signalgenauigkeit beeinträchtigt. Betrachtet man den Fall einer schlecht ausgeleuchteten Straße bei Nacht, ist ein System aus Kamera und Radar nicht mehr zuverlässig genug, um Fußgänger oder Radfahrer zu erkennen, welche die Straße überqueren. 

Um diese Stärken und Schwächen der einzelnen Systeme untereinander auszugleichen gibt es die Sensorfusion. Hierbei werden Daten verschiedener Sensoren ausgewertet und miteinander kombiniert, um eine möglichst umfassende Einschätzung der Umgebung treffen zu können. Eine große Herausforderung für die Entwickler ist dabei das systemübergreifende Auswerten der verschiedenen Datenformate in Echtzeit. Aktuell wird daran gearbeitet die Daten eines LIDAR-Sensors mit denen einer Kamera in einer 3D-Punkt-Wolke zu kombinieren („Fusion of LIDAR and camera sensor data for environment sensing in driverless vehicles“).