Nächster Artikel
Nur gemeinsam geht’s voran
Kollaborative Fahrmanöver als Erfolgsfaktor für das autonome Fahren
© iStock.com/ilbusca
Egal ob auf dem Fahrrad, im öffentlichen Personennahverkehr oder im Auto: Wir alle freuen uns, möglichst schnell und am besten stressfrei von A nach B zu kommen. Doch die Realität in vielen Städten und Ballungsräumen sieht meist anders aus: Der Verkehrsfluss stockt oder kommt gar komplett zum Erliegen, beispielsweise aufgrund eines Unfalls oder überlasteten Straßen. In der Stadt der Zukunft soll das anders sein: Hier sollen intelligente Verkehrssysteme den Verkehr leiten und den Verkehrsfluss optimieren. Das klingt einfacher als es ist. Denn noch müssen hierfür technologische Hürden genommen werden. Eine davon ist die Kommunikation der Verkehrsteilnehmer untereinander sowie mit der Verkehrsinfrastruktur.
Damit wir diese neue, entspanntere Verkehrswelt erleben dürfen, forscht João-Vitor Zacchi am Fraunhofer IKS an der kollaborativen Perzeption autonomer Fahrzeuge, welche die Perspektiven von Fahrzeugen und Verkehrsinfrastruktur kombiniert. Gefördert wird dieses Forschungsprojekt von der Europäischen Union im Rahmen des Programms Horizon 2020.
João-Vitor Zacchi
João-Vitor Zacchi ist wissenschaftlicher Mitarbeiter am Fraunhofer IKS. Er forscht an sicherer Perzeption für das autonome Fahren und ist Teil der Marie-Sklodowska-Curie Actions (MSCA). Das Programm konzentriert sich auf die Entwicklung von Forschungstalenten und die Forschungsförderung in ganz Europa.
Verschiedene Arten der Perzeption für die Entscheidungsfindung
»Bei der Perzeption gibt es grundsätzlich drei unterschiedliche Arten: Eine dezentrale, eine zentrale und eine hybride Perzeption«, erklärt João-Vitor Zacchi im Gespräch. Bei der dezentralen Perzeption erfolgt die Entscheidungsfindung basierend auf Sensordaten direkt im einzelnen Auto. Eine Kommunikation mit anderen Fahrzeugen ist in diesem Fall nicht erforderlich, da jedes Fahrzeug über eine vollständige Perzeptionskette verfügt. Bei der zentralen Perzeption ist es genau entgegengesetzt: Hier entscheidet die Verkehrsinfrastruktur auf Basis einer Kombination aus ihren Sensorinformationen und denen des Fahrzeugs. Für den Austausch von Informationen ist in diesem Fall eine verlässliche Kommunikation erforderlich. Das Fahrzeug selbst trifft keine eigenständige Entscheidung, sondern agiert basierend auf den Informationen des zentralen Systems. Daher verfügt das Auto auch nur über einzelne Bausteine der Perzeptionskette.Die Forschung von João-Vitor Zacchi konzentriert sich auf die dritte Art der Perzeption, die hybride Perzeption. Diese nutzt Informationen der Verkehrsinfrastruktur, um die Perzeption des einzelnen Fahrzeugs zu verbessern. Die Entscheidungsfindung liegt hier nach wie vor beim einzelnen autonomen Fahrzeug. Dieses verfügt bei der hybriden Perzeption über eine vollständige Perzeptionskette, um sich auch in Gebieten sicher bewegen zu können, in denen noch keine intelligente Infrastruktur zum Einsatz kommt.
»Die Herausforderung bei der hybriden Perzeption ist eine leistungsfähige Assoziierung von Daten, wie die Klassifizierung und die Nachverfolgung erkannter Objekte. Nur dann kann ein autonomes Fahrzeug in komplexen Situationen zum Beispiel an einer innerstädtischen Kreuzung geeignete Maßnahmen ableiten«, erläutert João die Problemstellung seiner Forschungsarbeit. »Durch die erforderliche Interaktion mit nicht-vernetzten Verkehrsteilnehmern wie Fußgängern werden solche Situationen noch komplexer. Erfolgreiche autonome Systeme müssen damit umgehen können. Insbesondere das Verhalten von uns Menschen ist oft schwer vorherzusagen.«
Neues Rahmenwerk für hybride Perzeption
Um diese Herausforderungen zu lösen, hat der Forscher des Fraunhofer IKS einen Vorschlag für ein Rahmenwerk erarbeitet, welches die Klassifizierung anderer Verkehrsteilnehmer und damit auch die Nachverfolgung der erkannten Objekte vereinfachen soll. »Autonome Fahrzeuge müssen verschiedene Objekte im Straßenverkehr richtig erkennen und berechnen, wo sich diese in der nächsten Sekunde befinden werden. Dafür ist es wichtig zu wissen, wie schnell sich ein Objekt bewegt und in welche Richtungen es sich bewegen kann«, fasst João-Vitor Zacchi zusammen. Bei anderen vernetzten Verkehrsteilnehmern gestaltet sich das verhältnismäßig einfach: Durch eine Kommunikation und einen Datenaustausch untereinander weiß ein autonomes Fahrzeug wie schnell ein anderes autonomes Fahrzeug fährt. Zudem hat ein autonomes Fahrzeug nur begrenzte Richtungsoptionen durch die vorgegebene Straßenführung – es kann beispielsweise an einer Kreuzung nur nach rechts, links oder geradeaus fahren. Anders sieht das bei Fußgängern oder Radfahrern. Hier kann das autonome Fahrzeug Informationen zur Geschwindigkeit nur basierend auf eigenen Sensormessungen erheben. Auch können sich Fußgänger und Radfahrer von ihrem aktuellen Standort aus im Prinzip in jede beliebige Richtung weiterbewegen aus – um beim Beispiel der Kreuzung zu bleiben: Fußgänger und Radfahrer können diese theoretisch auch diagonal überqueren oder entgegen der eigentlichen Fahrtrichtung auf dem Gehweg unterwegs sein.
Was ist ein Bayesian Occupancy Filter?
Ein Bayesian Occupancy Filter (BOF) arbeitet mit einer Belegungswahrscheinlichkeit von Rasterfeldern. Der Filter teilt die Umgebung in kleine Zellen auf und berechnet anhand der Sensordaten für jedes Feld die Wahrscheinlichkeit, dass es durch ein anderes Objekt belegt ist.
Das vom Fraunhofer IKS entwickelte Rahmenwerk nutzt daher einen Bayesian Occupancy Filter, um die Erkennung und Nachverfolgung von Objekten zu vereinfachen. Dieser rastert die Umgebung eines Fahrzeugs und blockiert alle Positionen, die von einem anderen Verkehrsteilnehmer belegt sein könnten.
Für eine schnelle Entscheidungsfindung erfolgt diese Rasterung im ersten Schritt bewusst sehr grob. »Der Einsatz eines standardisierten Bayesian Occupancy Filter führt zunächst zu einer vergleichsweise geringen Genauigkeit, da die Vorhersage davon ausgeht, dass sich ein Verkehrsteilnehmer prinzipiell in jede denkbare Richtung bewegen kann«, erläutert Zacchi. »Im nächsten Schritt wird das Objekt dann genauer klassifiziert, beispielsweise als anderes Fahrzeug oder Fußgänger. Dadurch kann das System die Position der anderen Verkehrsteilnehmer kontinuierlich verfeinern.« Einzelne Positionen auf dem Umfeldraster werden dadurch freigegeben und geben dem autonomen Fahrzeug zusätzlichen Handlungsspielraum.
Vergleich mit anderen Ansätzen zur Perzeption geplant
Das vorgeschlagene Rahmenwerk des Fraunhofer IKS für eine hybride Perzeption verbindet unterschiedliche Perspektiven auf eine Verkehrssituation, um das Kontextwissen einzelner autonomer Fahrzeuge zu steigern und deren Unabhängigkeit in Bezug auf die Entscheidungsfindung zu wahren. Die Forscher des Fraunhofer IKS haben diese individuelle Perzeptionskette bereits auf einzelnen Fahrzeugen in einem Simulationsumfeld implementiert und getestet. »In einem nächsten Schritt führen wir nun die Berechnung und Fusion mittels des Bayesian Occupancy Filter ein, um bewerten zu können, wie unser Ansatz im Vergleich zu individuellen Perzeptionsketten und anderen kollaborativen Ansätzen abschneidet.«Bis unterschiedliche Verkehrsteilnehmer miteinander kommunizieren und wir autonom und stressfrei von A nach B kommen, wird es also noch ein wenig dauern. »Wir werden in den nächsten Jahren eine schrittweise Entwicklung hin zu einer vollen Autonomie sehen. Am Anfang wird es vor allem in Städten ausgewählte Straßen oder Gebiete geben, die auf voll-autonomes Fahren ausgelegt sind. Bis zu einer Abdeckung des gesamten nationalen und internationalen Straßenverkehrs ist es jedoch noch ein langer Weg.«
Für weitere Informationen zum vorgeschlagenen Framework nehmen Sie gerne Kontakt mit João-Vitor Zacchi auf oder laden Sie seine Paper-Vorstellung im Rahmen der European Dependable Computing Conference 2021 herunter.
Conference Paper, 2021