Sieht der Mund von Donald Trump in dieser Aufnahme nicht seltsam aus? Atmet Joe Biden wirklich so wenig beim Sprechen? Diese und andere Fragen kommen wahrscheinlich beim Anschauen der Aufnahmen von Joe Biden und Donald Trump auf – was ist wahr, was ist gefälscht?
32 Aufnahmen: Hälfte fake, Hälfte wahr
Genau darauf legt es das Forschungsprojekt des Massachusetts Institute of Technology, kurz MIT, an. Forschende der Universität in Cambridge, USA, haben 32 Aufnahmen des Ex- und des amtierenden Präsidenten zusammengestellt. Die Hälfte von ihnen ist echt, bei der anderen Hälfte handelt es sich jedoch um sogenannte Deepfakes.
Deepfakes werden mit künstlicher Intelligenz erstellt. Es können Videos sein, in denen sogar gefälschte Gesichter eingebaut werden – oder Audiodateien, die stimmlich auf das erste Hören schon echt klingen können. Auch Zitate können gefälscht werden.
Schieberegler gibt an, ob es eine Fälschung ist – und wie sicher sich die User:innen dabei sind
Das MIT-Forschungsprojekt verwendet genau diese drei Formen. Dazu sind unter jedem Beispiel Schieberegler angebracht: Hier können die Beobachter:innen einstellen, ob sie das Beispiel für ein Deepfake halten oder nicht. Eine rechte Positionierung des Reglers spricht für einen Fake, eine linke Positionierung für ein wahres Beispiel. Je weiter der Regler in eine Richtung gezogen wird, desto sicherer ist sich der oder die User:in. Wer den Regler justiert hat, drückt auf „Submit“ und bekommt angezeigt, ob es sich um ein Fake handelt oder nicht.
Abwechselnd werden Videos, die teilweise stumm sind, Zitate oder Audioaufnahmen vorgestellt. Bei den Audioaufnahmen, wegen fehlender Hintergrundgeräusche oder seltsam monoton-atemloser Stimme, fällt das Erkennen der Deepfakes etwas leichter. Das kritisiert auch ein:e Nutzer:in im Forum Hacker News. Die Audiaufnahmen des MIT-Forschungsprojekts seien „extrem wenig überzeugend“, so „xg15“.
Stummfilme: Deepfakes beispielsweise am Mund erkennen
Schwieriger fand die Person die Stummfilme. Einige User:innen schreiben, dass ihnen dabei das Erkennen dieser Deepfakes am schwersten gefallen sei. Bei denen kann ein Deepfake beispielsweise an seltsamen Mundbewegungen erkannt werden – das schreiben mehrere User:innen. Ein Tipp, den auch andere Stellen geben: Auf die Mundbewegungen zu achten, rät auch das Bundesamt für Sicherheit in der Informationstechnik.
Das hilft jedoch nicht bei den Zitaten: Auch die können gefälscht sein. Die reinen Textbeispiele kritisiert „xg15“ ebenfalls: „Es ist unmöglich, ein Zitat zu verifizieren, indem man es einfach nur ansieht“, schreibt die Person. „fallat 6“ schreibt: „Ich hatte nur die Texte falsch.“ Hintergrundinformationen gibt es in dem MIT-Forschungsprojekt nämlich an keiner Stelle.
Und wie gut werden Deepfakes im „Real Life“ erkannt?
Wer sich also mit den Personalien Biden und Trump noch nicht auseinandergesetzt hat, wird es wahrscheinlich besonders bei den Zitaten schwer haben. Dennoch ist es ein spannendes Forschungsprojekt, auch um sich selbst zu hinterfragen: Wie gut erkenne ich Fakes? Allerdings merkt „brewdad“ bei den Hacker News an: „Es wäre interessant zu testen, wie gut jeder von uns diese Fälschungen erkennen könnte, wenn wir nicht bereits auf einer Website wären, die uns darauf vorbereitet, nach ihnen zu suchen.“ Im Alltag begegnen uns neben Deepfakes allerdings auch Fake News – manchmal auch in einem. Leicht zu erkennen sind die nicht – aber es gibt Tipps, wie es gelingen kann. Das ist auch gerade jetzt wichtig: Denn auch rund um den russischen Angriff auf die Ukraine sind viele Falschmeldungen und Deepfakes im Umlauf.