Anzeige
Anzeige
Feature
Artikel merken

Deepfakes: Was darf man heute noch glauben?

Barack Obama beschimpft Donald Trump. Taylor Swift spielt in einem Porno mit. Tausende Frauen veröffentlichen Nacktfotos von sich im Netz. Alles Dinge, die es gibt, obwohl es sie nie gegeben hat. Willkommen in der Welt der Deepfakes.

Von Florian Schauer-Bieche
5 Min. Lesezeit
Anzeige
Anzeige
(Bild: Shutterstock)

Ist das Ende unserer Vertrauensgesellschaft nahe, weil nichts mehr so ist wie es scheint? Eine berechtigte Frage, im Zeitalter von Fake News, gefälschten Videos und Bildern, die durch künstliche Intelligenzen erschaffen werden. Ich bin diesen Fragen mit Cyber-Security-Experten und IT-Forensikern nachgegangen. Entwarnung vorweg: Noch sind Technologien nicht intelligent genug, um alleine Fake-Bilder und Fake-Videos zu erstellen. Doch sie lernen rasch.

Einen einfachen Deepfake erkenne man schnell, meint Ross King. Der Thematic Coordinator für Data-Science arbeitet am Austrian Institute of Technology (AIT) im Bereich Digital Safety & Security. Er leitet ein Team, das sich auch der Medienforensik und digitalen Fälschungen widmet.

Anzeige
Anzeige

Algorithmen und künstliche Intelligenzen sind nur so gut wie die Menge an Daten, die ihnen zur Verfügung steht. „Sind nicht genügend Daten vorhanden, muss der Algorithmus improvisieren. Das führt zu Glitches, also Filmfehlern“, sagt King. Beispiel: Fehlt dem Algorithmus ein Foto einer Person mit geschlossenen Augen, kann er kein Blinzeln simulieren. Daher würde die Fake-Person durchgehend starren. Ein unnatürliches Verhalten, dass einem Menschen sofort auffällt. Andere Fehler sind laut Experten: „Die Haut ist zu glatt und gummiartig, die Falten im Gesicht dehnen sich nicht natürlich, die Mimik ist unecht.“ Außerdem: „Das Fälschen von Akustik, also der Stimme in verwechselbarer Qualität, ist noch nicht möglich“, sagt King.

Mit Gratis-App zum Fake-Obama

Warum gibt es dann einen Deepfake von Barack Obama, in dem der ehemalige US-Präsident über seinen Nachfolger sagt: „President Trump is a total and complete dipshit.“ Weil hier Menschen mit am Werk waren. Das Video stammt von Obama-Imitator Jordan Peele in einer Kooperation mit dem Medienportal Buzzfeed. Peele wurde von Profis hergerichtet, beherrscht die Gestik, Mimik und die Stimmlage von Obama. Die Video-Experten stellten ihr Know-how und die Ressourcen zur Verfügung. Von Obama sind zudem genügend Bilddaten frei verfügbar. Bei der App dann kam die Technologie ins Spiel: Peele nutzte die freie App „Fake App“. Mit ihr kann man den eigenen Mund mit dem einer anderen Person überlagern und sie sagen lassen, was man will. Wer Video- und Audiobearbeitung beherrscht, könnte ähnliche reale Ergebnisse produzieren. Ein Algorithmus beziehungsweise eine künstliche Intelligenz hätte das ganz alleine noch nicht geschafft. Das eigentliche Ziel des Projekts war ohnehin ein anderes: nämlich die User aufzurufen, nicht alles zu glauben, was sie online sehen und hören.

Anzeige
Anzeige

„Skepsis ist angebracht“: Medienkompetenz in den Schulen lehren

Mehr Medienkompetenz zu lehren, fordert Stefan Meier. Der deutsche IT- und Cyber-Security-Experte hat 2017 seine Dissertation zum Thema „Digitale Forensik in Unternehmen“ veröffentlicht. Heute berät er seine Klienten unter anderem in Digitaler Forensik sowie IT-Security. „Ich würde es begrüßen, wenn das Thema Medienkompetenz endlich großflächig Einzug in die Lehrpläne unserer Schulen halten würde. Manche Medien veröffentlichen Nachrichten leider schneller, als diese jemand prüfen könnte. Soziale Netzwerke, Plattformen und Chats tragen ihres dazu bei, dass Falschmeldungen unkontrolliert verbreitet werden“, sagt Meier. Jeder einzelne sei hier gefragt: Man solle nicht alles ungeprüft glauben, sondern zuerst recherchieren.

Anzeige
Anzeige

Braucht es also bald Content-Zertifikate, wie sie manche Experten vorschlagen? „Davon halte ich wenig. Diese müssten von einer Instanz ausgestellt werden, was der Presse- und Meinungsfreiheit schaden würde“, sagt Meier.

King will Zertifikate nicht gänzlich ablehnen, meint aber: „Wir brauchen mehr Vertrauen in die Herausgeber von Information, vor allem News-Services. Falls Zertifizierung hilft, ist es vielleicht sinnvoll.“ Gleichzeitig plädiert er für eine höhere Medienkompetenz. Er rät, Online-Inhalte skeptischer zu interpretieren und zu prüfen, wer der Herausgeber ist, und ob dieser die fachliche Kompetenz zum Thema mitbringt.

Anzeige
Anzeige

Deepnudes: Frauen ausziehen per Klick wurde von Entwicklern untersagt

Wie wichtig es ist, die User über die Auswirkungen von Deepfakes aufzuklären, zeigt die Applikation „Deepnudes“. Mit ihr konnte jedes Foto einer Frau in ein Nacktfoto derselben Frau verwandelt werden. Es gab plötzlich Nacktfotos von Frauen, die es eigentlich nicht geben konnte. Eine unvorstellbare Situation. Dafür nutzte Deepnudes die Struktur der Pix2Pix-Technologie. Eine künstliche Intelligenz, die vollautomatisch Bild-zu-Bild-Übersetzungen durchführt. Einfach erklärt: Eine Katzen-Skizze füllt die Software selbständig aus und generiert eine real wirkende Katze. Pix2Pix wurde 2017 von Studenten der UC in Berkeley entwickelt.

Deepnudes fand am 27. Juni 2019 ein schnelles Ende:

Die Entwickler begründeten, man wolle missbräuchliche Verwendung nicht dulden. Illegale Versionen sind aber bis heute im Netz verfügbar.

Anzeige
Anzeige

Der Kampf gegen Deepfakes: So enttarnen Experten

Ross King erklärt, wie Profis Fälschungen auffliegen lassen: „In der IT-Forensik arbeiten wir mit zwei Ebenen. Auf Ebene des Videosignals versuchen wir zu erkennen, ob es ungewöhnliche Muster in der Videokompression gibt oder im Verhältnis zwischen sequenzieller Video-Frames.“ Bei Youtube-Videos, wo durch mehrere Format-Conversions Spuren verwischt werden können, sei das mitunter schwierig.

„Auf Inhaltsebene gibt es eine Vielzahl an Techniken, die gerade erforscht werden. Beispielsweise die Analyse von Schatten im Verhältnis zu Lichtquellen, die Suche nach unnatürlichen Kopfpositionen, nach abnormalen Blinzelmustern und die Analyse der Hautfarbe.“

Tatsächlich verändert jeder Herzschlag unsere Hautfarbe. Das ist mit freiem Auge kaum wahrnehmbar, doch am MIT wurde 2014 eine Software entwickelt, die das Pulsieren des Blutes sichtbar macht und auch Atembewegungen registriert. Die Hautfarbe der Person sollte daher mit dem Herzschlag übereinstimmen. Wurde nun etwas geändert, etwa die Mundpartie, würde das auffallen.

Anzeige
Anzeige

Eine „Silver Bullet“, also eine Allzweckwaffe gegen Deepfake-Dämonen, gibt es laut King nicht. Am AIT setze man auf Medienforensik und Deep-Learning-Tools. „Wir haben über die letzten fünf Jahre Expertise in der Audio-Analyse aufgebaut, sowie im Feld Natural-Language-Processing (NLP). Diese setzen wir im Kampf gegen Fake News ein.“ Am Ende sei man aber immer auf Ground-Truth-Daten angewiesen. Darunter versteht man beispielsweise Videos, die bereits von (menschlichen) Experten als echt oder falsch kategorisiert worden sind.

Neue Gesetze für und gegen Deepfakes?

Künstliche Intelligenz ist derzeit noch weit von Selbstständigkeit entfernt. Von den falschen Menschen angelernt, sind Deepfakes eine ernstzunehmende Bedrohung. Unsere Gesellschaft wird sich darauf vorbereiten müssen. Die Juraprofessoren Bobby Chesney und Danielle Citron verfassten im August 2018 ein Paper, das weltweit Beachtung fand. In „Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security“ empfehlen die angesehenen Juristen, dass neue Gesetze und Strafformen für neue Technologien entwickelt werden müssen. Angesichts von Entwicklungen wie dem neuen IT-Gesundheitsgesetz, nach dem künftig Ärzte sogar Apps verschreiben könnten, wird es nicht lange dauern. Bleibt die Frage offen, wen man später bestrafen will: die künstliche Intelligenz oder die Entwickler? Oder müssen wir doch die User in die Pflicht nehmen und ihnen eine Holschuld abverlangen?

Mehr zu diesem Thema
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Ein Kommentar
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Insomnia

Die letzte Aussage des Artikel ist seltsam. Wie kann man denn eine Technologie per se unter Strafe stellen? Der Einsatzzweck dieser ist doch eher das, was man bestrafen sollte. Wenn man also Identitätsdiebstahl begeht und falsch Aussagen im Namen einer anderen Personen trifft, dann ist das heute auch schon alles strafbar und bedarf keiner Sonder-Regelungen.

Antworten

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige