Künstliche Intelligenz

Deep Fakes erkennen

Deep Fake
Julian Wörmann, fortiss-Experte für Maschinelles Lernen. Foto: fortiss

Was hat „Deep Learning“ mit „Deep Fakes“ zu tun? „Sehr viel“, wie Forscher Julian Wörmann erklärt. Im Interview mit der Journalistin und Podcasterin Sandra Andrés erläutert der fortiss-Experte für Maschinelles Lernen, dass sich die Deep-Fake-Macher die Stärken der Deep-Learning-Tehnologie zunutze machen, um Bild- und Videodaten zu fälschen.

Deep Fake ist ein Kunstwort aus Deep Learning (tiefgehendes Lernen) und Fake (Täuschung). Deep Learning ist ein Teilgebiet des Maschinellen Lernens, das in den letzten Jahren massiv an Popularität gewonnen hat. Die Grundlage für das Training bilden große Datenmengen. Ein selbstlernendes Systems kann nach Abschluss der Lernphase das erworbene Wissen verallgemeinern und unbekannte Daten beurteilen. Solche Systeme werden für automatisierte Diagnoseverfahren, Sprach- und Texterkennung genutzt.

Die Technologie hat aber auch ihre Schattenseiten: Sie lässt sich ebenfalls für das Fälschen bzw. Manipulieren von Textnachrichten, Bild- oder Videodaten einsetzen. „Der größte Unterschied liegt daran, dass bei Bildbearbeitungsprogrammen wie Photoshop sich jemand hinsetzt und die Bilder manuell bearbeitet. Bei Deep Fakes erlernt das System die Struktur der Daten aus vielen Beispielen. Die Erkenntnisse aus den gelernten Trainingsdaten nutzt es anschließend, um Bilder oder Videos künstlich zu erzeugen“, führt Wörmann aus.

Gesichtsausdruck künstlich generiert


Um einen falschen Datensatz zu erzeugen, ist neben den Trainingsdaten eine große Rechenkapazität notwendig. Ein Beispiel: Wenn das selbstlernende System die Struktur verschiedener Gesichtsausdrücke erfasst hat, ist es in der Lage, auf Basis dieses Dateninputs einen Gesichtsausdruck zu schaffen, der künstlich generiert wurde.

Noch konzentrieren sich die Fälschungen auf soziale Medien, und die Qualität der Fälschungen ist eingeschränkt. „KI-Technologien werden immer besser. Je mehr Daten die Nutzer ins Netz stellen, desto mehr Trainingsmaterial steht der KI zur Verfügung. Und je besser die Rechenleistung wird, desto besser werden die Deep Fakes“, prognostiziert der Forscher. Es bestehe die Gefahr, dass damit Filterblasen verstärkt oder Börsenkurse von Unternehmen beeinflusst werden. Nachrichten würde angezweifelt, und Medien könnten ihre Reputation verlieren. Und welchen Wert hätten Videobeweise von (vermeintlichen) Zeugen einer kriminellen Tat, wenn die Aufnahmen womöglich gefälscht sind?

Digitale Kompetenzen


„Eine Möglichkeit wäre, mit Deep Learning Deep Fakes zu erkennen. Doch dadurch ergibt sich ein Teufelskreis. Wir Forscher dürften unsere Methoden nicht verraten, weil sie sonst wieder in den Fälschungsprozess miteingebaut werden würden“, führt Wörmann aus.

Aber auch die Gesellschaft selbst könne etwas tun. Der Rat des Ingenieurs: „Für mich steht an erster Stelle, digitale Kompetenzen zu vermitteln. Skeptisch und mit gesundem Menschenverstand an die Sache rangehen und hinterfragen: ,Ok, ist das echt oder könnte das künstlich generiert sein?‘ Ich denke, das ist momentan der entscheidende Schritt, den jeder selbst machen kann.“