Nächster Artikel
Lassen sich Unsicherheiten bei der Umfeldwahrnehmung quantifizieren?
Autonomes Fahren basiert auf verlässlicher Umfelderkennung. Wenn hier Fehler passieren, kann es schnell zu lebensbedrohlichen Situationen kommen. Das muss verhindert werden, aber ein Restrisiko bleibt. Erst wenn sich dieses exakt bestimmen lässt, wird es berechenbar und man kann entscheiden, ob man es eingehen will oder nicht.
© iStock.com/lamyai
Die Umfeldwahrnehmung, Voraussetzung der Vollautomatisierung von Maschinen und Fahrzeugen, ist ein Feld, das besonders von den Fortschritten im Bereich der Forschung an Künstlicher Intelligenz (KI) profitiert. Im Bereich des automatisierten Fahrens werden etwa neuronale Netze verwendet, um Kamerabilder zu segmentieren und darin einzelne Objekte zu klassifizieren, zum Beispiel einen Menschen auf der Fahrbahn. Hier übertrifft die erreichte Leistungsfähigkeit (Performanz) deutlich die von nicht KI-basierten Verfahren, besonders im Bereich des Bildverstehens. Wenn nun allerdings die KI-basierten Objektklassifikationen direkt in die Fahrwegplanung eines automatisierten Fahrzeugs einfließen, könnte eine falsche Klassifikation bereits zu einer katastrophalen Fahrentscheidung führen.
Von Risiken und Unsicherheiten
Um zu verhindern, dass solche funktionalen Unzulänglichkeiten (d. h. Systemversagen auf funktionaler Ebene) ein inakzeptables Risiko darstellen, muss das Risiko zuerst einmal messbar gemacht werden. Ein Risiko im Bereich sicherheitskritischer Systeme setzt sich im Allgemeinen aus der Wahrscheinlichkeit des Auftretens, der Kontrollierbarkeit und vor allem der Schwere eines möglichen Personenschadens zusammen. Das heißt konkret für die Umfelderkennung: Betrachtet werden die Wahrscheinlichkeit des Auftretens von Fehlern bei der Perzeption, in Kombination mit dem aktuellen Fahrmanöver sowie dessen Kontrollierbarkeit. Dazu kommt die Wahrscheinlichkeit weiterer Unzulänglichkeiten außerhalb der Umfeldwahrnehmung. Nur so lässt sich das tatsächliche Sicherheitsrisiko bestimmen. Die Automobilindustrie orientiert sich dabei am ISO-Standard 21448 »Safety of the Intended Functionality« (SOTIF), um Risiken aus funktionalen Unzulänglichkeiten zu reduzieren.
Die korrekte Erfassung der Umwelt ist unumgänglich für den sicheren Betrieb Kognitiver Systeme. Erfahren Sie mehr zu unserer Forschung im Bereich Dependable Environment Perception
Die Wahrscheinlichkeit, dass Fehler auftreten, ist dabei wiederum stark abhängig vom Grad der im System vorherrschenden Unsicherheiten. Diese Unsicherheiten zeigen sich auf unterschiedliche Weise, z.B. in Form von Messunsicherheit und Messabweichung bei physikalischen Messdaten (aleatorische Unsicherheit). Es gilt jedoch auch, Abweichungen zwischen gelerntem Modell und der Realität bei KI-basierten Verarbeitungsschritten (epistemische Unsicherheit) in den Griff zu bekommen. Einige dieser Unsicherheiten sind inhärent für die jeweilige Technologie, daher lassen sie sich meist nur minimieren, aber nicht vollständig beseitigen. Andere Unsicherheiten bei KI-basierten Verarbeitungsschritten sind wiederum eher systematischer Natur, wie z.B. die Auswahl unrepräsentativer Trainings- und Testdaten, und benötigten entsprechend eine vorrangig qualitative Behandlung.
Die Unsicherheit »berechenbar« machen
Wenn es nun möglich wäre, Fehler innerhalb der Umfeldwahrnehmung nicht bloß zu identifizieren, sondern auch vollständig zu quantifizieren, könnte man das Risiko für jedes Manöver und jede Situation berechnen – und somit feststellen, ob die Umfeldwahrnehmung frei von inakzeptablen Risiken ist.
Voraussetzung dafür ist in jedem Fall eine systematische und vollständige Analyse des Einsatzkontexts sowie die Identifikation von Fehlern im Systemdesign. Um jedoch eine statisch belastbare Aussage über das Risiko in der Umfeldwahrnehmung auf Gesamtsystemebene zu treffen, müssen alle Einzelaspekte ebenfalls statistisch belastbar sein. Eine detailgenaue Messung der Ergebnisse für einzelne relevante Bestandteile der Fahrsituation bietet dabei den Vorteil, dass gezielt individuelle Performanzen zusammen das Gesamtrisiko bestimmen – anstatt nur den absoluten »worst case« des Perzeptionssystems zu berücksichtigen.
Simulation als Mittel zur Risikoquantifizierung von KI
Unsicherheiten im Bereich der physikalischen Messung, z.B. bei Radarsensoren, lassen sich bereits sehr detailgenau und situationsabhängig bestimmen. Daher kann in der Praxis eine Messung der Einflüsse von physikalischen Messunschärfen auf Gesamtsystemebene anhand eines geeigneten Situationskatalogs bereits zu belastbaren Ergebnissen für unterschiedliche Umweltbedingungen führen.
Bei größeren neuronalen Netzen ist der Nachweis der Performanz durch eine reine Erprobung auf Systemebene unmöglich. Simulationen könnten dieses Problem lösen, da sie gezielt das Verhalten einer KI-basierten Teilfunktion in risikobehaften Situationen in einem Bruchteil der Realzeit testen können. Zudem gewährleisten solche virtuellen Tests eine gefahrenlose Testumgebung und ermöglichen eine Vielzahl an unterschiedlichen Betrachtungen. Diese elementaren Vorzüge sind unverzichtbar für die Sicherheitsanalyse von stark unsicherheitsbehafteten Systemen.
Möglichkeit zur Quantifizierung von KI-Performanz ist noch ungewiss
Um belastbare Performanzaussagen aus solchen Simulationen ableiten zu können, muss allerdings sichergestellt werden, dass die Simulation die Nutzungsumgebung realitätsgetreu abbildet. Das Problem: Neuronale Netze sind im Bereich der Bildverarbeitung im Allgemeinen nicht vollständig testbar. Daher wird derzeit noch untersucht, ob es durch eine Zerlegung des Dateninputs nach Kategorien unterschiedlichster Einflussfaktoren und einer zufälligen Testung innerhalb dieser vielen einzelnen Gruppen möglich ist, das Auftreten von Fehlerhäufungen zu eliminieren. So ließen sich die Simulationsergebnisse als statistisch belastbare Approximation der Performanz einer KI-Subfunktion für einzelne Eingangsdatenbereiche verwenden.
Das Fraunhofer-Institut für Kognitive Systeme IKS arbeitet an Methoden der systematischen Sicherheitsanalyse von Umfeldmodellen. Diese ermöglichen eine verlässliche Aussage darüber, ob die betrachteten Risiken vollständig erfasst sind – eine Voraussetzung dafür, das Systemdesign hinsichtlich Sicherheit, Performanz, Zuverlässigkeit und Kosten zu optimieren.