Autonomes Fahren
KI-Sicherheit auf dem Prüfstand

Auf dem Weg zur Autonomie werden Autos zunehmend mit Künstlicher Intelligenz ausgestattet. Doch muss diese sicher sein. Im Projekt »KI Absicherung« arbeiteten Forschende und Unternehmen an einem Nachweis der Sicherheit.

mask Straßenszene

Ein menschlicher Autofahrender reagiert äußerst flexibel: Rennt beispielsweise ein Kind auf die Straße, erkennt er diese Gefahrensituation ebenso wie andere brenzlige Begebenheiten – und kann spontan darauf reagieren. Anders ist das bei autonom fahrenden Fahrzeugen. Sie werden zunehmend über Künstliche Intelligenz, kurz KI, gesteuert, schließlich gilt es, alle relevanten Verkehrsteilnehmenden korrekt zu erkennen und zu klassifizieren. Handelt es sich um eine Person, einen Hund oder einen unbeweglichen Gegenstand? Um solche Fragen beantworten zu können, wird die Künstliche Intelligenz mit Bildern angelernt. Doch: Hat sie bestimmte Situationen nicht gelernt, kann sie – im Gegensatz zum Menschen – nicht zweifelsfrei korrekt darauf reagieren.

Sollen diese Technologien in hochautomatisierte Fahrzeuge integriert werden, ist es unerlässlich, ihre Sicherheit zu gewährleisten und über einen geeigneten Nachweis sicherzustellen. Doch lassen sich existierende und etablierte Absicherungsprozesse nicht ohne weiteres auf maschinelle Lernverfahren übertragen. Denn die reine Anzahl an Detektionen – etwa von Fußgängern – sagt wenig aus: Erkennt das System beispielsweise 99 Prozent aller Fußgänger, identifiziert jedoch Kleinkinder nicht als Personen, kann es keinesfalls als sicher bezeichnet werden. Andererseits kann ein System, das nur 95 Prozent der Situationen erkennt, durchaus als sicher bezeichnet werden, wenn keine systematischen Fehler auftreten – und stattdessen beispielsweise nur Personen nicht als solche erkannt werden, die verdeckt und daher nur teilweise zu sehen sind.

Absicherung für Künstliche Intelligenz

Der Herausforderung, eine Absicherung für Künstliche Intelligenz zu entwickeln, stellten sich 28 Partnerunternehmen und -institutionen: Im Forschungsprojekt »KI Absicherung« arbeiteten sie gemeinsam an Lösungen, um KI-Funktionsmodule in fahrerlosen Fahrzeugen abzusichern. Mit dabei waren neben Unternehmen wie Bosch und Volkswagen auch die Fraunhofer-Institute für Kognitive Systeme IKS und für Intelligente Analyse- und Informationssysteme IAIS. Ins Leben gerufen wurde das Verbundprojekt vom Verband der Deutschen Automobilindustrie VDA – im Zuge der Leitinitiative »Autonomes und vernetztes Fahren«. Gefördert wurde es vom Bundeswirtschaftsministerium mit 19,2 Millionen Euro.

Iwo Kurzidem

Iwo Kurzidem: »Unsere Aufgabe war es, einen verständlichen und verlässlichen Absicherungsnachweis zu erstellen.«

Das Projekt umfasste vier Teilprojekte: Zum einen die KI-Funktion an sich, zum anderen die synthetischen Daten, mit denen die Künstliche Intelligenz trainiert und getestet wird. »So ist es beispielsweise schwer zu beschreiben, was eine typische Person ausmacht«, erläutert Iwo Kurzidem, Wissenschaftler am Fraunhofer IKS. Füttert man das System jedoch mit zahlreichen Bildern, auf denen verschiedene Personen zu sehen sind, lernt es mit der Zeit, kollektiv Personen zu erkennen. Im dritten Teilprojekt standen Methoden und Maßnahmen im Fokus, mit denen sich die Schwachstellen der Künstlichen Intelligenz adressieren und nivellieren lassen.

Fraunhofer IKS bringt seine Kompetenzen ein

»Wir waren im vierten Teilprojekt aktiv: Hier ging es darum, einen verständlichen und verlässlichen Absicherungsnachweis zu erstellen«, sagt Kurzidem. Am Anfang des Projekts stand die Abschätzung des Restrisikos. Wo liegen Risiken und wie sind diese einzuordnen? Auch der Frage, wie man die KI »auf Herz und Nieren« überprüft, widmeten sich die Forschenden. »Denkt man an klassische Tests, so lautet das Ergebnis meist: Bestanden oder nicht bestanden. Bei der Künstlichen Intelligenz ist das jedoch äußerst schwierig, das Ergebnis würde meist negativ ausfallen – schließlich treten immer mal kleinere Probleme auf. Können wir jedoch nachweisen, dass diese auf bestimmte Faktoren zurückgehen, etwa die teilweise verdeckten Personen, lässt sich sagen: Der Test wurde zwar nicht in allen Bereichen bestanden, jedoch handelt es sich um Fälle, die erklärbar und nicht problematisch sind, da sie sich beispielsweise durch andere Technologien mildern lassen.«

Einschränkungen erkennen und beheben

Auch gibt es Dinge, die die Leistung der Künstlichen Intelligenz einschränken, Expertinnen und Experten sprechen von »Performance Limiting Factors«. Das kann zum Beispiel Dunkelheit sein, die ein Kamera-basiertes System an seine Grenzen führt. Auf solch dunklen Bildern kann die beste Künstliche Intelligenz nichts erkennen. Ähnlich bei starkem Regen oder Nebel. Neben diesen physikalischen Gründen gibt es jedoch auch solche, die in der KI selbst begründet liegen, etwa Objekte, die sie nicht kennt. »Haben wir etwa bestimmte Posen von Personen nicht im Trainingsmaterial, etwa knieende oder liegende Personen, kann die KI sie nicht pauschal erkennen«, beschreibt Kurzidem. Während man sich einige problematische Aspekte wie die Dunkelheit herleiten kann, sind für andere konkrete Testfälle nötig. Doch muss man zunächst einmal wissen, was genau es zu testen gilt. Auch hier haben die Forschenden eine Lösung. »Wir können einen Funktionsraum für bestimmte semantische Dimensionen aufspannen und suchen, wo dieser Minima aufweist«, erläutert Kurzidem.

Sind die Schwachstellen identifiziert, gilt es in einem zweiten Schritt Lösungen zu finden. Hier arbeiteten die Forschenden des Fraunhofer IKS mit den Kolleginnen und Kollegen von Bosch zusammen. Was die Dunkelheit angeht, so nützt es nichts, an der KI zu schrauben – vielmehr gilt es auf weitere Sensorsysteme zu setzen, etwa Radar oder Lidar, die auch bei Dunkelheit, Nebel und Regen »sehen« können. Wird dagegen eine knieende Person nicht erkannt, muss die Künstlichen Intelligenz neu angelernt werden – mit Daten, die auch knieende Personen umfassen. Auch entwickelten die Forschenden Standardtests, die jedes KI-System bestehen sollte. Mit dieser Absicherungsstrategie ist die Künstliche Intelligenz bestens geeignet, um das Fahren der Zukunft sicherer werden zu lassen.

Nächster Artikel

Projekt »KI-Absicherung«
Sicherheit von KI nachweisen

Hans-Thomas Hengl
Hans-Thomas Hengl
Autonomes Fahren / Fraunhofer IKS
Autonomes Fahren