Explainable AI für Fahrassistenzsysteme
Das Forschungsprojekt zielt darauf ab, das Potenzial und den Wert von Explainable AI im sicherheitskritischen Bereich der Vorhersage von Fahrspurwechseln zu demonstrieren. Dies eröffnet die Möglichkeit, den Stand der Forschung im Bereich des maschinellen Lernens zu erklären.
Das Ziel ist die Entwicklung eines maschinellen Lernmodells, das Spurwechsel vorhersagen und begründen kann, indem es die Daten des Providentia++ Digital Twin nutzt.
Die Argumentation des maschinellen Lernmodells soll dargelegt werden, um Vertrauen aufzubauen und die Vorhersage des Modells in einem sicherheitskritischen Bereich zu rechtfertigen.
Schließlich werden die Vorhersagen und Erklärungen des maschinellen Lernmodells in einer Live-Webanwendung visualisiert, um das Potenzial von Explainable AI in sicherheitskritischen Bereichen für Kunden zu demonstrieren.
Schichtnormalisierte Long Short-term Memory Modelle (LSTM) haben sich als robuste, dem neuesten Stand der Technik entsprechende maschinelle Lernmodelle für die Vorhersage von Fahrspurwechseln in Echtzeit erwiesen. Ihre innere Funktionsweise ist jedoch zu komplex und kompliziert, um von einem Beobachter verstanden zu werden. Daher sind schichtnormalisierte LSTMs sogenannte Blackboxes. Für sicherheitskritische Anwendungen wie die Vorhersage von Fahrspurwechseln muss ihre Funktionsweise explizit gemacht werden.
Um das Verhalten des Modells zu erklären, werden verschiedene Attributionsmethoden verglichen. Die schichtnormalisierte Relevanzausbreitung (Layer-wise Relevance Propagation, LRP) wird aufgrund ihrer Robustheit und ihres geringen Rechenaufwands als besonders geeignet für eine Erklärung in Echtzeit angesehen. LRP wurde jedoch nicht auf die schichtnormalisierte LSTM-Architektur ausgeweitet. Der bedeutende Forschungsbeitrag des Projektes ist, dass LRP auf normalisierte LSTMS erweitert wurde.
Das Projekt wurde in Zusammenarbeit mit fortiss Research Fellow Prof. Dr. Ute Schmid, Universität Bamberg, durchgeführt.
01.01.2021 - 01.06.2021