Mobilität der Zukunft
Wenn die KI irritiert ist

Ein Aufkleber auf dem Vorfahrtsschild. Äste, die vors Stoppschild ragen. Ein bisschen Graffiti auf dem Tempolimit-Hinweis. Völlig normal im Straßenbild, oder? Was für Menschen zumeist überhaupt kein Problem darstellt, kann für Künstliche Intelligenz (KI) schwierig werden.

23. September 2021

mask Schnee verdeckt ein Verkehrszeichen

Eine verlässliche Umfeldwahrnehmung der Künstlichen Intelligenz (KI) ist bei Fahrassistenzsystemen und vor allem beim autonomen Fahren von enormer Bedeutung: Sie muss Verkehrsschilder erkennen und entsprechend handeln, um im Straßenverkehr agieren zu können. Sind diese Schilder jedoch durch Naturgegebenheiten, Dreck oder gar Vandalismus optisch verändert, kann es zu problematischen – und gefährlichen – Fehlschlüssen des Systems kommen. Statt am Stoppschild zu bremsen, beschleunigt das autonom fahrende Auto, wenn es das verdeckte oder verschmutzte Verkehrsschild falsch interpretiert!

Wie kommt es zu solchen Fehlschlüssen?

Die drei wichtigsten technischen Voraussetzungen für das autonome Fahren sind die maschinelle Wahrnehmung, das Situationsverstehen und die Bahnführung. Kameras und Sensoren scannen die Umgebung in Echtzeit, (D)GPS-Ortungssysteme liefern weitere Informationen zum Umfeld. All diese Daten werden stetig zusammengeführt und ausgewertet: Daraus entsteht die Perzeption, die maschinelle Wahrnehmung der Fahrzeugumgebung. Die Künstliche Intelligenz erfasst dann mit dem von ihr wahrgenommenen und errechneten Modell der Umgebung die bevorstehende Situation und trifft Vorhersagen, aus denen die nächsten Handlungen wie beispielsweise Abbremsen, Beschleunigen oder Spurwechsel abgeleitet werden.

Wenn nun die Kameras manipulierte Eingabedaten wie eben veränderte Verkehrsschilder oder schlecht erkennbare Ampeln aufnehmen, kommt die KI zu falschen Annahmen über die bevorstehende Situation und trifft schließlich falsche Entscheidungen. Bei Bilderkennungssystemen auf Basis neuronaler Netze reicht die Änderung von sehr wenigen Eingabepixeln, um eine falsche Entscheidung des Systems zu verursachen – das können ein paar Blätter, eine Reflexion des Sonnenlichts oder ein Werbeaufkleber sein. Auch schlechte Wetterbedingungen oder der Ausfall von einzelnen Kameras und Sensoren können jederzeit dazu führen, dass die KI ein fehlerhaftes Modell der Fahrsituation erzeugt und danach handelt.

Mögliche Lösungsansätze aus der Forschung des Fraunhofer IKS

Daher ist es unabdingbar, dass sich das System selbst beobachtet und den eigenen Zustand sowie die eigene Verlässlichkeit bewertet. Die KI muss sich und ihre Entscheidungen also ständig selbst in Frage stellen. Das Fraunhofer IKS forscht dazu mit einem holistischen Ansatz an der Absicherung von KI, sagt Adrian Schwaiger, wissenschaftlicher Mitarbeiter am Institut: »Wir arbeiten daran, Künstliche Intelligenz selbst robuster und selbstkritischer zu machen, behalten dabei aber auch immer ihre Einbettung in die gesamte Softwarearchitektur im Blick. Wir analysieren das ganze System und beleuchten so die KI und auch ihre Lücken aus mehreren Blickwinkeln.«

Zitat

Wir analysieren das ganze System und beleuchten so die KI und auch ihre Lücken aus mehreren Blickwinkeln.

@webroot/assets/icons/core/quote-close.svg
Adrian Schwaiger

Wissenschaftlicher MItarbeiter am Fraunhofer-Institut für Kognitive Systeme IKS

Die Wissenschaftler und Wissenschaftlerinnen forschen beispielsweise an einer intelligenten Cross-Validierung interner und externer Sensordaten mit unterschiedlichen Schwachstellen. Stichwort Redundanz: Verschiedene Sensoren und Kameras liefern Daten, die sich gegenseitig und mit Hilfe von beispielsweise GPS-Kartenmaterial plausibilisieren. Ein Stoppschild auf der Autobahn obwohl gerade noch Tempo 120 war? Unwahrscheinlich, also nicht abbremsen!

Auch adaptive Software-Architekturen können hier von großem Nutzen sein. Das System passt sich dabei selbstständig an veränderte Umgebungsbedingungen an: Wenn zum Beispiel ein Sensor ausfällt, eine Kamera verdeckt ist oder fehlerhafte Eingabedaten von Verkehrsschildern vorliegen, müssen die Softwarearchitekturen alternative sichere Verhaltensweisen für das selbstfahrende Auto vorschlagen. Die Forscher und Forscherinnen arbeiten an resilienten Softwarearchitekturen, die auch bei unerwarteten und unbekannten Herausforderungen verlässlich reagieren können.

Fahrassistenzsysteme nehmen uns schon heute viel Arbeit ab: Spurassistenz, Einparkhilfe oder Notbremsassistenten. Damit wir aber irgendwann in unseren autonomen Autos Zeitung lesen können, bedarf es noch deutlich robusterer Künstlicher Intelligenz.

Nächster Artikel

Künstliche Intelligenz
Was passiert, wenn KI nicht richtig funktioniert?

Aniket Salvi
Aniket Salvi
Autonomes Fahren / Fraunhofer IKS
Autonomes Fahren