Anzeige
Anzeige
Fundstück

Erkennst du einen Deepfake? Hier kannst du es testen

Mal sind sie leicht zu erkennen, manchmal dann aber umso schwerer: Deepfakes. Mit solchen Fälschungen setzt sich ein Forschungsprojekt des MIT auseinander. Bei dem kann jede:r online ausprobieren, ob er oder sie die Deepfakes erkennt.

3 Min.
Artikel merken
Anzeige
Anzeige

Er ist es wirklich: Diese Bild zeigt den amtierenden US-Präsidenten Joe Biden. (Foto: ApostolisBril / Shutterstock)

Sieht der Mund von Donald Trump in dieser Aufnahme nicht seltsam aus? Atmet Joe Biden wirklich so wenig beim Sprechen? Diese und andere Fragen kommen wahrscheinlich beim Anschauen der Aufnahmen von Joe Biden und Donald Trump auf – was ist wahr, was ist gefälscht?

32 Aufnahmen: Hälfte fake, Hälfte wahr

Anzeige
Anzeige

Genau darauf legt es das Forschungsprojekt des Massachusetts Institute of Technology, kurz MIT, an. Forschende der Universität in Cambridge, USA, haben 32 Aufnahmen des Ex- und des amtierenden Präsidenten zusammengestellt. Die Hälfte von ihnen ist echt, bei der anderen Hälfte handelt es sich jedoch um sogenannte Deepfakes.

Deepfakes werden mit künstlicher Intelligenz erstellt. Es können Videos sein, in denen sogar gefälschte Gesichter eingebaut werden – oder Audiodateien, die stimmlich auf das erste Hören schon echt klingen können. Auch Zitate können gefälscht werden.

Anzeige
Anzeige

Schieberegler gibt an, ob es eine Fälschung ist – und wie sicher sich die User:innen dabei sind

Das MIT-Forschungsprojekt verwendet genau diese drei Formen. Dazu sind unter jedem Beispiel Schieberegler angebracht: Hier können die Beobachter:innen einstellen, ob sie das Beispiel für ein Deepfake halten oder nicht. Eine rechte Positionierung des Reglers spricht für einen Fake, eine linke Positionierung für ein wahres Beispiel. Je weiter der Regler in eine Richtung gezogen wird, desto sicherer ist sich der oder die User:in. Wer den Regler justiert hat, drückt auf „Submit“ und bekommt angezeigt, ob es sich um ein Fake handelt oder nicht.

Anzeige
Anzeige

Abwechselnd werden Videos, die teilweise stumm sind, Zitate oder Audioaufnahmen vorgestellt. Bei den Audioaufnahmen, wegen fehlender Hintergrundgeräusche oder seltsam monoton-atemloser Stimme, fällt das Erkennen der Deepfakes etwas leichter. Das kritisiert auch ein:e Nutzer:in im Forum Hacker News. Die Audiaufnahmen des MIT-Forschungsprojekts seien „extrem wenig überzeugend“, so „xg15“.

Stummfilme: Deepfakes beispielsweise am Mund erkennen

Schwieriger fand die Person die Stummfilme. Einige User:innen schreiben, dass ihnen dabei das Erkennen dieser Deepfakes am schwersten gefallen sei. Bei denen kann ein Deepfake beispielsweise an seltsamen Mundbewegungen erkannt werden – das schreiben mehrere User:innen. Ein Tipp, den auch andere Stellen geben: Auf die Mundbewegungen zu achten, rät auch das Bundesamt für Sicherheit in der Informationstechnik.

Anzeige
Anzeige

Das hilft jedoch nicht bei den Zitaten: Auch die können gefälscht sein. Die reinen Textbeispiele kritisiert „xg15“ ebenfalls: „Es ist unmöglich, ein Zitat zu verifizieren, indem man es einfach nur ansieht“, schreibt die Person. „fallat 6“ schreibt: „Ich hatte nur die Texte falsch.“ Hintergrundinformationen gibt es in dem MIT-Forschungsprojekt nämlich an keiner Stelle.

Und wie gut werden Deepfakes im „Real Life“ erkannt?

Wer sich also mit den Personalien Biden und Trump noch nicht auseinandergesetzt hat, wird es wahrscheinlich besonders bei den Zitaten schwer haben. Dennoch ist es ein spannendes Forschungsprojekt, auch um sich selbst zu hinterfragen: Wie gut erkenne ich Fakes? Allerdings merkt „brewdad“ bei den Hacker News an: „Es wäre interessant zu testen, wie gut jeder von uns diese Fälschungen erkennen könnte, wenn wir nicht bereits auf einer Website wären, die uns darauf vorbereitet, nach ihnen zu suchen.“ Im Alltag begegnen uns neben Deepfakes allerdings auch Fake News – manchmal auch in einem. Leicht zu erkennen sind die nicht – aber es gibt Tipps, wie es gelingen kann. Das ist auch gerade jetzt wichtig: Denn auch rund um den russischen Angriff auf die Ukraine sind viele Falschmeldungen und Deepfakes im Umlauf.

Mehr zu diesem Thema
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Schreib den ersten Kommentar!
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige