KI-Absicherung

KI-Absicherung

Sichere KI für automatisiertes Fahren

KI-Absicherung

Entwicklung und Untersuchung von Methoden und Maßnahmen zur Absicherung von KI-basierten Funktionen für das hochautomatisierte Fahren. Am Anwendungsfall der Fußgängererkennung wird eine beispielhafte Argumentations- und Prozesskette zur Absicherung einer komplexen KI-Funktion entwickelt.

Projektbeschreibung

Autonome Fahrzeuge müssen in der Lage sein, ihre Umgebung wahrzunehmen und angemessen auf sie zu reagieren. Eine fehlerfreie und zuverlässige Umfelderkennung, die alle relevanten Verkehrsteilnehmer korrekt identifizieren und klassifizieren kann, ist eine Grundvoraussetzung für die Umsetzung autonomer Fahrfunktionen. Dies gilt insbesondere für die Wahrnehmung der Umwelt in komplexen städtischen Verkehrssituationen, wo zunehmend Methoden der Künstlichen Intelligenz (KI) eingesetzt werden. Solche auf maschinellem Lernen basierenden KI-Funktionsmodule werden damit zu einer Schlüsseltechnologie.

Eine der größten Herausforderungen bei der Integration dieser Technologien in hochautomatisierte Fahrzeuge ist es, die gewohnte Funktionssicherheit bisheriger Systeme zu gewährleisten, ohne dass der Fahrer im Notfall die Fahraufgabe übernehmen muss. Bestehende und etablierte Absicherungsprozesse lassen sich nicht ohne weiteres auf maschinelle Lernverfahren übertragen.

Das Projekt KI-Absicherung arbeitet daran, eine stringente und nachweisbare Sicherheitsargumentation zu etablieren, damit KI-basierte Funktionsmodule (KI-Module) für das hochautomatisierte Fahren abgesichert und validiert werden können.

Forschungsbeitrag

Die fortiss-Teams tragen zu einer Reihe von Forschungsbereichen bei, darunter:

  • Entwicklung eines abdeckungsgesteuerten Fuzz-Testing-Frameworks zum Testen der Robustheit von Deep Neural Network (DNN)-Komponenten und einer Reihe von Metriken zur Messung der Vollständigkeit von Testdatensätzen für DNNs
  • Definition eines Sicherheitsargumentationsansatzes für eine DNN-basierte Wahrnehmungskomponente zur Spezifikation von Sicherheitsanforderungen für DNN
  • Konstruktion von Sicherheitsnachweisen mit DNN-Black-Box-Metriken und Bereitstellung einer Strategie für eine ausreichende Spezifikation aus der Sicherheitsperspektive
  • Entwicklung und Implementierung eines Mechanismus zur Messung der Reaktion neuronaler Netze auf Störungen des Inputs und zur Berechnung der maximalen Störung, die unter Beibehaltung korrekter Erkennungen tolerierbar ist
  • Konstruktion eines Bayes'schen neuronalen Netzes zur Bewertung der Ausgabeunsicherheit und Entwurf einer Metrik zur Angabe der Generalisierungsfähigkeit des Netzes

Projektdauer

01.07.2019 - 30.06.2022

Dr. Holger Pfeifer

Ihr Kontakt

Dr. Holger Pfeifer

+49 89 3603522 29
pfeifer@fortiss.org

Weitere Informationen

Projektpartner

Publikationen

  • 2021 Laplace Approximation with Diagonalized Hessian for Over-parameterized Neural Networks Ming Gui, Ziqing Zhao, Tianming Qiu und Hao Shen NeurIPS 2021, Bayesian Deep Learning Workshop(36):, 2021. Details URL BIB