HCML Erklärbarkeit

HCML Erklärbarkeit

Erklärbarkeit in der KI-gestützten Entscheidungsfindung

HCML Erklärbarkeit

Mit der zunehmenden Verbreitung von Künstlicher Intelligenz (KI) und Algorithmen des maschinellen Lernens in der Gesellschaft wird die Interpretierbarkeit und Nachvollziehbarkeit der Ergebnisse dieser Algorithmen immer wichtiger. Auf Basis von Human-centered Machine Learning (HCML) untersuchen und entwickeln wir neue Erklärungsmethoden dieser Algorithmen, um Nutzer bei der Entscheidungsfindung besser zu unterstützen.

Projektbeschreibung

Selbst für Experten auf dem Gebiet des maschinellen Lernens sind viele lernbasierte Algorithmen, die für einen Großteil der Fortschritte in der KI verantwortlich sind, nicht leicht zu erklären. Trotz der zunehmenden Zahl von Publikationen, klafft nach wie vor eine Lücke zwischen dem, was die Forschungsgemeinschaft produziert, und dem, was die Gesellschaft braucht. Dabei haben verschiedene Nutzergruppen unterschiedliche Anforderungen an Form und Inhalt der bereitgestellten Erklärungen.

Im Rahmen des Projekts werden verschiedene Erklärungsmethoden hinsichtlich ihrer Zuverlässigkeit bei der Beschreibung des Algorithmusverhaltens sowie ihrer Nützlichkeit bei der Entscheidungsfindung für verschiedene Nutzergruppen anhand von Nutzerstudien untersucht. Auf Basis der gewonnenen Erkenntnisse entwickeln wir neue Erklärungstechniken, die den Bedürfnissen der Nutzer entsprechen sollen. Dabei fokussieren wir uns hauptsächlich auf die Anwendungsfälle Betrugserkennung, Luftfahrt und bildgestützte medizinische Diagnostik.

Forschungsbeitrag

Die Wirksamkeit von Erklärungsmethoden ist stark abhängig von einer Vielzahl menschlicher Faktoren, wobei die Zusammenhänge oftmals noch nicht ausreichend untersucht sind. Wir leisten in dieser Hinsicht beispielsweise Beiträge in den Bereichen Betrugserkennung und bildgestützte Diagnostik, indem wir visuelle Erklärungsmethoden, welche für die Entscheidungsfindung wichtige Bestandteile hervorheben, in kontrollierten Experimenten mit Nutzer:innen evaluieren.

Während solche Experimente für die Untersuchung kausaler Zusammenhänge unabdingbar sind, sind die kontrollierten Laborbedingungen oftmals zu simpel, um die Realität angemessen abzubilden. Aus diesem Grund untersuchen wir zusätzlich naturalistischere Entscheidungsszenarien, etwa im Kontext intelligenter Cockpit-Assistenzsysteme. Anhand nutzerzentrierter Methoden tragen wir hier zu einer ganzheitlicheren Sicht auf das Thema KI-Erklärbarkeit bei.

Projektdauer

01.04.2022 – 31.03.2023

Dr. Yuanting Liu

Ihr Kontakt

Dr. Yuanting Liu

+49 89 3603522 427
liu@fortiss.org

Projektpartner