mask Polarlicht von unten fotografiert

Künstliche Intelligenz

Fraunhofer blog icon color ki machine learning

Die Entscheidungswege von Künstlicher Intelligenz (KI) sind bisher so undurchsichtig, dass die Sicherheit und Zuverlässigkeit von KI nicht ohne weiteres bewertet werden kann. Künstliche Intelligenz muss allerdings für den Menschen nachvollziehbar sein, denn nur dann ist sie sicher genug, um in sicherheitskritischen Systemen wie dem autonomen Fahren zum Einsatz zu kommen.

Deswegen forscht das Fraunhofer IKS daran, wie Künstliche Intelligenz abgesichert werden kann. Eines unserer Forschungsziele ist es, neuronale Netze nachvollziehbar zu konzipieren und Unsicherheiten zu quantifizieren. Unsere Softwarearchitektur erweitert KI-basierte Systeme und prüft die Entscheidungen auf Plausibilität. Um die KI nicht zu sehr einzuengen, werden anstelle klassischer Safety-Ansätze, dynamische Verfahren eingesetzt.

Lesen Sie mehr zur Absicherung von Künstlicher Intelligenz auf unserer Website: Künstliche Intelligenz

Artikel

Zum Thema Künstliche Intelligenz