Nächster Artikel
Autonomes Fahren
Wo das Roboter-Auto noch üben muss
Autonomes Fahren funktioniert in exakt festgelegten Anwendungsbereichen recht gut. Wenn aber fahrerlose Autos quasi unvorbereitet in die „freie Wildbahn“ des täglichen Straßenverkehrs losgelassen werden, ergeben sich möglicherweise Schwierigkeiten, mit denen die Fahrzeuge nicht umgehen können. Drei Beispiele.
© iStock/ Kulpreya Chaichatpornsuk
Wie viel Erfahrung und Intuition Autofahrerinnen und Autofahrer jeden Tag im Straßenverkehr einsetzen, wird den meisten in der Regel nicht bewusst. Erst wenn autonome Systeme das Lenkrad übernehmen sollen, kommt Schritt für Schritt zutage, was ein fahrerloses Auto mit Hilfe Künstlicher Intelligenz (KI) leisten muss, um mit menschlichen Fahrern gleichzuziehen.
Das gilt besonders, wenn das Auto nicht in einem eng definierten Anwendungsbereich eingesetzt wird, sondern in einem Open-World-Szenario quasi drauflosfährt, in dem jederzeit alles passieren kann. Hier kommt das häufig so genannte »Long-Tail-Distribution-Problem« des autonomen Fahrens zum Tragen: Egal, an wie viele Situationen alle Beteiligten in der Entwicklung gedacht haben, es bleiben immer noch viele Szenarien, Ereignisse und Konstellationen übrig, die das Fahrzeug schlicht und einfach überfordern.
Verkehrsschilder können fahrerlose Autos verwirren
Zum Beispiel auf der Autobahn. Häufig steht zwischen der eigentlichen Autobahn und der Ausfahrtspur ein Verkehrsschild, das eine Höchstgeschwindigkeit von 80 Stundenkilometern vorschreibt. Alleine aus dem Kontext ergibt sich, dass diese Geschwindigkeitsbegrenzung für die Ausfahrtspur gilt. Für Fahrerinnen und Fahrer am Steuer ist für die Zuordnung in aller Regel keine Überlegung notwendig. Aber was macht ein autonomes Fahrzeug an dieser Stelle? Das Gleiche gilt für die Zuordnung von Ampeln zu Fahrspuren.
Ein weiteres Beispiel sind aktuelle Baustellen und vorübergehende Absperrungen, die auch Männer und Frauen hinter dem Steuer gelegentlich an den Rand der Verzweiflung treiben. Wie soll sich da erst ein fahrerloses Auto zurechtfinden, wenn es darum geht zu entscheiden, welche Trajektorie es fahren muss. Eine Aufgabe, die menschliche Fahrerinnen und Fahrer im Ergebnis intuitiv richtig lösen können.
Und schließlich der »Klassiker« bei der Diskussion um autonomes Fahren: ein unbekanntes Objekt taucht auf der Fahrbahn auf. Woher soll das fahrerlose Auto spontan wissen, wie es mit damit umzugehen hat? Ist es eine leere Plastiktüte, die ohne Probleme überfahren werden darf? Oder ist es ein verpacktes Transportgut, das erheblichen Schaden für das Fahrzeug und das Umfeld anrichten kann, wenn es zu einer Kollision mit einem Auto kommt? Im schlimmsten Fall handelt es sich um einen Menschen, der beispielsweise eine große Kiste oder ein ausgefallenes Karnevalskostüm trägt und eben nicht als Mensch erkannt wird.
Zwei Ansätze für ein Problem
Diese Szenarien stellen fahrerlose Autos vor Probleme, die dem evolutionären Ansatz des autonomen Fahrens folgen, also einer Herangehensweise, die auf Fahrerassistenzsystemen (FAS) der Stufe 2 aufbaut, und die Autos stetig weiterentwickelt, bis sie die Stufen 3, 4 und irgendwann einmal 5, also das unbeschränkte, autonome Fahren erreichen. Dabei sind die Fahrzeuge im evolutionären Ansatz, wie gesagt, in der »Open World« unterwegs.
Dagegen geht der disruptive Ansatz davon aus, dass autonomes Fahren prinzipiell etwas anderes ist als »nur« ein FAS, das es weiterzuentwickeln gilt. Hier kommen die Erkenntnisse aus jahrzehntelanger Forschung in Künstlicher Intelligenz (KI) und Robotik zum Tragen. Realisiert werden KI-Anwendungen in »schmalen Domänen«, das heißt sehr genau und sehr eng definierten Anwendungsbereichen. Probleme mit Verkehrsschildern und Ampeln sowie Baustellen werden dadurch gelöst, dass Informationen darüber für das gegebene Geonet, in dem sich die Fahrzeuge bewegen, in der Karte festgehalten werden. Änderungen, auch temporäre Baustellen und Absperrungen werden im Austausch zwischen Flottenbetreiber und Stadt/Region vorgenommen. Bei einem unbekannten Objekt auf der Straße verlässt sich der disruptive Ansatz auf sogenannte »remote guidance«, bei der ein Remote Operator das Kamerabild und möglicherweise weitere Sensordaten betrachtet und das Fahrzeug instruiert, wie es sich verhalten soll.
Für beide Ansätze gibt es noch viel zu tun, sprich viel zu üben für die Roboterautos, bis sie auf den Straßen hundertprozentig mit Fahrerinnen und Fahrern mithalten können. Die Forschung des Fraunhofer-Instituts für Kognitive Systeme IKS unterstützt beide Ansätze dabei, sichere autonome Fahrzeuge auf die Straße zu bringen.