mask Polarlicht von unten fotografiert

Künstliche Intelligenz

Künstliche Intelligenz & Machine Learning / Fraunhofer IKS

Die Entscheidungswege von Künstlicher Intelligenz (KI) sind bisher so undurchsichtig, dass die Sicherheit von KI nicht ohne weiteres bewertet werden kann. Künstliche Intelligenz muss allerdings für den Menschen nachvollziehbar sein, denn nur dann ist sie sicher genug, um in sicherheitskritischen Systemen wie dem autonomen Fahren zum Einsatz zu kommen.

Deswegen forscht das Fraunhofer IKS daran, wie Künstliche Intelligenz abgesichert werden kann. Eines unserer Forschungsziele ist es, neuronale Netze nachvollziehbar zu konzipieren und Unsicherheiten zu quantifizieren. Unsere Softwarearchitektur erweitert KI-basierte Systeme und prüft die Entscheidungen auf Plausibilität. Um die KI nicht zu sehr einzuengen, werden anstelle klassischer Safety-Ansätze, dynamische Verfahren eingesetzt.

Lesen Sie mehr zur Absicherung von Künstlicher Intelligenz auf unserer Website: Künstliche Intelligenz

Artikel

Zum Thema Künstliche Intelligenz