Fälschung enttarnt: Deepfake-o-Meter macht es einfach, KI-generierte Medien zu erkennen
Siwei Lyu ist Professor an der University at Buffalo (UB), einer der führenden Universitäten im Verbund der State University of New York (SUNY) im gleichnamigen US-Bundesstaat. Im Rahmen seiner Tätigkeit hat er Zugriff auf die besten Tools zur schnellen Aufdeckung gefälschter viraler Fotos, Videos und Audiodateien. Einblicke in seine Arbeit lieferte er jüngst bei Techxplore.
Deepfake-Experte will schneller als bisher helfen
„Ob Social-Media-Nutzer, Journalisten oder Strafverfolgungsbehörden – alle müssen sich oft an jemanden wie mich wenden, um herauszufinden, ob ein Medium Anzeichen dafür aufweist, dass es von künstlicher Intelligenz generiert wurde“, bedauert Lyu und ergänzt: „Sie können keine sofortige und schlüssige Analyse erhalten, wenn die Zeit drängt.“
Um diesem Missstand abzuhelfen, hat Lyu mit seinem Team vom UB Media Forensics Lab den Deepfake-o-Meter entwickelt. Das ist an der Außenseite eine einfache Web-Plattform, ähnlich einer Suchmaschine. Im Inneren indes werkeln mehrere hochmoderne Deepfake-Erkennungsalgorithmen, denen allen gemein ist, dass sie Open-Source sind.
Leicht zu bedienende Web-App entlarvt Deepfakes
Die Verwendung der Plattform ist selbsterklärend. Nachdem Nutzer:innen ein kostenloses Konto angelegt haben, können sie eine Mediendatei hochladen. Dann lassen sich Erkennungsalgorithmen auswählen. So kann präzise die Genauigkeit, Laufzeit und das Jahr, in dem sie entwickelt wurden, angesteuert werden. In weniger als einer Minute erhalten Nutzer:innen dann eine Einschätzung durch das System.
„Wir stellen keine eindeutigen Behauptungen über die hochgeladenen Inhalte auf. Wir bieten lediglich eine umfassende Analyse dieser Inhalte mit einer Vielzahl von Methoden an“, erläutert Lyu. Nutzer:innen sollten diese Informationen dann verwenden, „um selbst zu entscheiden, ob sie den Inhalt für echt halten.“
Deepfake-o-Meter soll an realen Fakes trainiert werden
Vor dem Hochladen werden die Nutzer:innen gefragt, ob sie das jeweilige Medium mit den Forscher:innen teilen möchten. Denn Lyu und sein Team wollen ihre Algorithmen mit Medien konfrontieren und letztlich trainieren, die tatsächlich online zirkulieren.
„Es tauchen ständig neue und ausgefeiltere Deepfakes auf. Die Algorithmen müssen kontinuierlich verfeinert werden, um auf dem neuesten Stand zu bleiben“, erläutert Lyu. Dazu brauche es „Daten aus der realen Welt“.
Laut Lyu wurden bereits mehr als 6.300 Medien auf der Plattform geprüft. Darunter befand sich ein Robocall des angeblichen Joe Biden, der die Einwohner des US-Bundesstaats New Hampshire aufforderte, nicht zu wählen, sowie ein gefälschtes Video des ukrainischen Präsidenten Wolodymyr Selenskyj, der darin die Kapitulation gegenüber Russland erklärte.
Nächste Version des Deepfake-o-Meter soll verwendete KI-Tools entlarven
Für die Zukunft des Deepfake-o-Meters hat sich Lyu noch einiges vorgenommen. So hofft er, seine Plattform über das Erkennen von KI-generierten Inhalten hinaus erweitern zu können. Sein Team hat bereits Tools entwickelt, die ihrerseits die KI-Tools, die höchstwahrscheinlich für die Erstellung der Deepfakes verwendet wurden, identifizieren können.
„Dies würde Hinweise liefern, um die Verantwortlichen einzugrenzen“, sagt er, denn es reiche nicht immer aus, „zu wissen, dass ein Medium synthetisch oder manipuliert ist“. Wichtig sei auch zu erkennen, wer dahinterstecke und was deren Absicht sei; zeigt sich der Professor überzeugt.
Sein Team möchte die Menschen für das Thema Deepfakes sensibilisieren und in die Jagd nach ihnen einbinden. So sei „die Zusammenführung von Social-Media-Nutzern und Forschern entscheidend für die Lösung vieler Probleme, die durch Deepfakes entstehen.“ Es werde „eine kollektive Anstrengung erfordern, um das Deepfake-Problem zu lösen.“