Anzeige
Anzeige
News

Deepfakes: Es gibt Möglichkeiten, die Videomanipulation zu erkennen

Es ist vertrackt: Vor allem bewegten Bildern und Stimmen vertrauen wir Menschen intuitiv. Doch seitdem es möglich ist, selbst dynamische Medien wie Videos und Audiomitschnitte mit vergleichsweise wenig Aufwand und Expertise in hoher Qualität zu fälschen, heißt es umdenken.

Quelle: dpa
1 Min.
Artikel merken
Anzeige
Anzeige
Frisur und Gesichtszüge des chinesischen Darstellers sehen Tesla-Chef Elon Musk verblüffend ähnlich – an der Echtheit gibt es Zweifel. (Screenshot: t3n)

Die täuschend echten Fälschungen werden mit Hilfe künstlicher Intelligenz (KI) erstellt und lassen sich bei normalem Hinsehen oder Hören kaum noch von echten Videos oder Stimmaufnahmen unterscheiden, warnt das Bundesamt für Sicherheit in der Informationstechnik (BSI), das die Technologie, Verfahren, Gefahren und Gegenmaßnahmen auf einer neuen Themenseite erklärt.

Geboren aus neuronalen Netzen

Anzeige
Anzeige

Die Fälschungen werden auch als Deepfakes bezeichnet, weil die Verfahren zu ihrer Erstellung auf tiefen neuronalen Netzen (deep neural networks) basieren.

Und wie schafft man es, Deepfakes nicht auf den Leim zu gehen? Schon allein das Wissen um ihre Existenz und die Möglichkeiten von KI hilft dabei, nicht mehr per se auf die Echtheit jeglicher Videos oder Audio-Aufzeichnungen zu vertrauen. Stattdessen gilt es, immer auch Aussagen und Plausibilität kritisch zu hinterfragen.

Anzeige
Anzeige

Handwerklich nicht immer perfekt

Aber auch technisch kann es durchaus Hinweise geben, die Fälschungen entlarven können. Dazu zählen dem BSI zufolge etwa Artefakte bei Gesichtsübergängen, verwaschene Konturen, begrenzte Mimik oder unstimmige Belichtung bei Videos. Metallischer oder monotoner Klang, falsche Aussprache oder unnatürliche Sprechweise sowie unnatürliche Geräusche oder Verzögerungen sind typische Fehler bei Stimmfälschungen.

Anzeige
Anzeige

Künftig könnte es aber auch kryptographische Verfahren geben, die die Quelle von Video- oder Audio-Material eindeutig mit einer Identität verknüpfen, gibt das BSI einen Ausblick darauf, wie zukünftig Deepfakes verhindert werden könnten. Dazu zählten auch zahlreiche Methoden zur automatisierten Erkennung manipulierter Daten, an denen Wissenschaftlerinnen und Wissenschaftler arbeiten.

Mehr zu diesem Thema
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige