Explainable AI

Explainable AI

Explainable AI für Fahrassistenzsysteme

Explainable AI

Im Projekt Explainable Artificial Intelligence (AI) für Fahrassistenzsysteme wird untersucht, wie das Fahrspurwechselverhalten von Fahrzeugen anhand des digitalen Zwillings von Providentia++ in Echtzeit vorhergesagt und erklärt werden kann.

Projektbeschreibung

Das Forschungsprojekt zielt darauf ab, das Potenzial und den Wert von Explainable AI im sicherheitskritischen Bereich der Vorhersage von Fahrspurwechseln zu demonstrieren. Dies eröffnet die Möglichkeit, den Stand der Forschung im Bereich des maschinellen Lernens zu erklären.

Das Ziel ist die Entwicklung eines maschinellen Lernmodells, das Spurwechsel vorhersagen und begründen kann, indem es die Daten des Providentia++ Digital Twin nutzt.

Die Argumentation des maschinellen Lernmodells soll dargelegt werden, um Vertrauen aufzubauen und die Vorhersage des Modells in einem sicherheitskritischen Bereich zu rechtfertigen.

Schließlich werden die Vorhersagen und Erklärungen des maschinellen Lernmodells in einer Live-Webanwendung visualisiert, um das Potenzial von Explainable AI in sicherheitskritischen Bereichen für Kunden zu demonstrieren.

Forschungsbeitrag

Schichtnormalisierte Long Short-term Memory Modelle (LSTM) haben sich als robuste, dem neuesten Stand der Technik entsprechende maschinelle Lernmodelle für die Vorhersage von Fahrspurwechseln in Echtzeit erwiesen. Ihre innere Funktionsweise ist jedoch zu komplex und kompliziert, um von einem Beobachter verstanden zu werden. Daher sind schichtnormalisierte LSTMs sogenannte Blackboxes.  Für sicherheitskritische Anwendungen wie die Vorhersage von Fahrspurwechseln muss ihre Funktionsweise explizit gemacht werden.

Um das Verhalten des Modells zu erklären, werden verschiedene Attributionsmethoden verglichen. Die schichtnormalisierte Relevanzausbreitung (Layer-wise Relevance Propagation, LRP) wird aufgrund ihrer Robustheit und ihres geringen Rechenaufwands als besonders geeignet für eine Erklärung in Echtzeit angesehen. LRP wurde jedoch nicht auf die schichtnormalisierte LSTM-Architektur ausgeweitet. Der bedeutende Forschungsbeitrag des Projektes ist, dass LRP auf normalisierte LSTMS erweitert wurde.

Das Projekt wurde in Zusammenarbeit mit fortiss Research Fellow Prof. Dr. Ute Schmid, Universität Bamberg, durchgeführt.

Projektdauer

01.01.2021 - 01.06.2021

Dr. Yuanting Liu

Ihr Kontakt

Dr. Yuanting Liu

+49 89 3603522 427
liu@fortiss.org

Weitere Informationen

Projektpartner