Robuste KI

Robuste KI

Entwicklung von vertrauenswürdigem Verhalten für autonome Fahrzeuge durch Reinforcement Learning

Robuste KI

Das Projekt untersucht die Hürden, die bei der Entwicklung eines Verhaltensplaners mit Hilfe von Reinforcement Learning und dessen Einsatz im autonomen Forschungsfahrzeug von fortiss aufgetreten sind. Dabei wird die Anwendbarkeit des Deloitte Trustworthy AI Frameworks auf den Bereich des Reinforcement Learning untersucht und notwendige zukünftige Erweiterungen aufgezeigt.

Projektbeschreibung

Das Deloitte Trustworthy AI Framework beschreibt Kriterien, die KI-Algorithmen erfüllen müssen, um menschliches Vertrauen zu gewinnen. Die Gewährleistung der Vertrauenswürdigkeit ist besonders bei sicherheitskritischen Anwendungen wie dem autonomen Fahren relevant und bleibt eine der offenen Herausforderungen. Wesentliche Aspekte für die Entwicklung vertrauenswürdiger KI-Algorithmen, das supervised oder unsupervised Learning verwenden, wurden im Deloitte Trustworthy AI Framework dargestellt.

Reinforcement Learning ist ein bekanntes Lernparadigma, das in der Robotik und beim autonomen Fahren große Beachtung gefunden hat. Es ermöglicht das Erlernen von komplexem Fahrverhalten offline in der Simulation, was den Rechenaufwand der Bewegungsplanungskomponente reduziert. Allerdings lassen sich die Vertrauenswürdigkeitskriterien anderer Lernparadigmen nicht ohne Weiteres auf Anwendungen des Reinforcement Learning übertragen. Im Rahmen des Robuste KI-Projekts hat Deloitte gemeinsam die Anwendbarkeit und Vollständigkeit ihres vertrauenswürdigen KI-Frameworks für das Reinforcement Learning untersucht.

Forschungsbeitrag

Graphik Verfeinerung der ODD
Überblick über den Entwicklungsprozess von Behaviorplanner mit Reinforcement Learning.

Beim Einsatz in einem realen System sind die idealen Eingabedaten (in der simulierten Umgebung) nicht mehr verfügbar. Daher muss das auf dem Reinforcement Learning basierende Bewegungsplanungsmodul robust gegenüber verminderten Eingabedaten und der Systemleistung sein, wie z. B. Beobachtungsunsicherheit oder zufällige Verzögerungen, aber gleichzeitig eine wertvolle Leistung beibehalten.

Im Rahmen des Projekts Robuste KI wurde die Gestaltung von Belohnungsfunktionen untersucht, die sich aus den Anforderungen an Vertrauenswürdigkeit und Leistung ableiten. Reward Shaping wird eingesetzt, um den Lernprozess zu beschleunigen. Im Kontext der datenzentrierten KI haben wir sinnvolle Ansätze zur Generierung von Szenarien implementiert, um die ODD-Spezifikation abzudecken. Darüber hinaus wurde auch die Möglichkeit untersucht, die Robustheit der KI gegenüber diesen Hindernissen zu verbessern, indem sie bereits bei der Generierung von Trainingsszenarien berücksichtigt werden. Die Ergebnisse fließen in die Open-Source-Software BARK und den Stack für autonomes Fahren Apollo von fortiss ein.

Förderung

Unterstützt durch die Deloitte GmbH

Forschungsdauer

15.01.2022 - 30.05.2022

 Xiangzhong Liu

Ihr Kontakt

Xiangzhong Liu

+49 89 3603522 182
xliu@fortiss.org

Weitere Informationen

Projektpartner