Deepfakes: Was darf man heute noch glauben?
Einen einfachen Deepfake erkenne man schnell, meint Ross King. Der Thematic Coordinator für Data-Science arbeitet am Austrian Institute of Technology (AIT) im Bereich Digital Safety & Security. Er leitet ein Team, das sich auch der Medienforensik und digitalen Fälschungen widmet.
Algorithmen und künstliche Intelligenzen sind nur so gut wie die Menge an Daten, die ihnen zur Verfügung steht. „Sind nicht genügend Daten vorhanden, muss der Algorithmus improvisieren. Das führt zu Glitches, also Filmfehlern“, sagt King. Beispiel: Fehlt dem Algorithmus ein Foto einer Person mit geschlossenen Augen, kann er kein Blinzeln simulieren. Daher würde die Fake-Person durchgehend starren. Ein unnatürliches Verhalten, dass einem Menschen sofort auffällt. Andere Fehler sind laut Experten: „Die Haut ist zu glatt und gummiartig, die Falten im Gesicht dehnen sich nicht natürlich, die Mimik ist unecht.“ Außerdem: „Das Fälschen von Akustik, also der Stimme in verwechselbarer Qualität, ist noch nicht möglich“, sagt King.
Mit Gratis-App zum Fake-Obama
Warum gibt es dann einen Deepfake von Barack Obama, in dem der ehemalige US-Präsident über seinen Nachfolger sagt: „President Trump is a total and complete dipshit.“ Weil hier Menschen mit am Werk waren. Das Video stammt von Obama-Imitator Jordan Peele in einer Kooperation mit dem Medienportal Buzzfeed. Peele wurde von Profis hergerichtet, beherrscht die Gestik, Mimik und die Stimmlage von Obama. Die Video-Experten stellten ihr Know-how und die Ressourcen zur Verfügung. Von Obama sind zudem genügend Bilddaten frei verfügbar. Bei der App dann kam die Technologie ins Spiel: Peele nutzte die freie App „Fake App“. Mit ihr kann man den eigenen Mund mit dem einer anderen Person überlagern und sie sagen lassen, was man will. Wer Video- und Audiobearbeitung beherrscht, könnte ähnliche reale Ergebnisse produzieren. Ein Algorithmus beziehungsweise eine künstliche Intelligenz hätte das ganz alleine noch nicht geschafft. Das eigentliche Ziel des Projekts war ohnehin ein anderes: nämlich die User aufzurufen, nicht alles zu glauben, was sie online sehen und hören.
„Skepsis ist angebracht“: Medienkompetenz in den Schulen lehren
Mehr Medienkompetenz zu lehren, fordert Stefan Meier. Der deutsche IT- und Cyber-Security-Experte hat 2017 seine Dissertation zum Thema „Digitale Forensik in Unternehmen“ veröffentlicht. Heute berät er seine Klienten unter anderem in Digitaler Forensik sowie IT-Security. „Ich würde es begrüßen, wenn das Thema Medienkompetenz endlich großflächig Einzug in die Lehrpläne unserer Schulen halten würde. Manche Medien veröffentlichen Nachrichten leider schneller, als diese jemand prüfen könnte. Soziale Netzwerke, Plattformen und Chats tragen ihres dazu bei, dass Falschmeldungen unkontrolliert verbreitet werden“, sagt Meier. Jeder einzelne sei hier gefragt: Man solle nicht alles ungeprüft glauben, sondern zuerst recherchieren.
Braucht es also bald Content-Zertifikate, wie sie manche Experten vorschlagen? „Davon halte ich wenig. Diese müssten von einer Instanz ausgestellt werden, was der Presse- und Meinungsfreiheit schaden würde“, sagt Meier.
King will Zertifikate nicht gänzlich ablehnen, meint aber: „Wir brauchen mehr Vertrauen in die Herausgeber von Information, vor allem News-Services. Falls Zertifizierung hilft, ist es vielleicht sinnvoll.“ Gleichzeitig plädiert er für eine höhere Medienkompetenz. Er rät, Online-Inhalte skeptischer zu interpretieren und zu prüfen, wer der Herausgeber ist, und ob dieser die fachliche Kompetenz zum Thema mitbringt.
Deepnudes: Frauen ausziehen per Klick wurde von Entwicklern untersagt
Wie wichtig es ist, die User über die Auswirkungen von Deepfakes aufzuklären, zeigt die Applikation „Deepnudes“. Mit ihr konnte jedes Foto einer Frau in ein Nacktfoto derselben Frau verwandelt werden. Es gab plötzlich Nacktfotos von Frauen, die es eigentlich nicht geben konnte. Eine unvorstellbare Situation. Dafür nutzte Deepnudes die Struktur der Pix2Pix-Technologie. Eine künstliche Intelligenz, die vollautomatisch Bild-zu-Bild-Übersetzungen durchführt. Einfach erklärt: Eine Katzen-Skizze füllt die Software selbständig aus und generiert eine real wirkende Katze. Pix2Pix wurde 2017 von Studenten der UC in Berkeley entwickelt.
Deepnudes fand am 27. Juni 2019 ein schnelles Ende:
Die Entwickler begründeten, man wolle missbräuchliche Verwendung nicht dulden. Illegale Versionen sind aber bis heute im Netz verfügbar.
Der Kampf gegen Deepfakes: So enttarnen Experten
Ross King erklärt, wie Profis Fälschungen auffliegen lassen: „In der IT-Forensik arbeiten wir mit zwei Ebenen. Auf Ebene des Videosignals versuchen wir zu erkennen, ob es ungewöhnliche Muster in der Videokompression gibt oder im Verhältnis zwischen sequenzieller Video-Frames.“ Bei Youtube-Videos, wo durch mehrere Format-Conversions Spuren verwischt werden können, sei das mitunter schwierig.
„Auf Inhaltsebene gibt es eine Vielzahl an Techniken, die gerade erforscht werden. Beispielsweise die Analyse von Schatten im Verhältnis zu Lichtquellen, die Suche nach unnatürlichen Kopfpositionen, nach abnormalen Blinzelmustern und die Analyse der Hautfarbe.“
Tatsächlich verändert jeder Herzschlag unsere Hautfarbe. Das ist mit freiem Auge kaum wahrnehmbar, doch am MIT wurde 2014 eine Software entwickelt, die das Pulsieren des Blutes sichtbar macht und auch Atembewegungen registriert. Die Hautfarbe der Person sollte daher mit dem Herzschlag übereinstimmen. Wurde nun etwas geändert, etwa die Mundpartie, würde das auffallen.
Eine „Silver Bullet“, also eine Allzweckwaffe gegen Deepfake-Dämonen, gibt es laut King nicht. Am AIT setze man auf Medienforensik und Deep-Learning-Tools. „Wir haben über die letzten fünf Jahre Expertise in der Audio-Analyse aufgebaut, sowie im Feld Natural-Language-Processing (NLP). Diese setzen wir im Kampf gegen Fake News ein.“ Am Ende sei man aber immer auf Ground-Truth-Daten angewiesen. Darunter versteht man beispielsweise Videos, die bereits von (menschlichen) Experten als echt oder falsch kategorisiert worden sind.
Neue Gesetze für und gegen Deepfakes?
Künstliche Intelligenz ist derzeit noch weit von Selbstständigkeit entfernt. Von den falschen Menschen angelernt, sind Deepfakes eine ernstzunehmende Bedrohung. Unsere Gesellschaft wird sich darauf vorbereiten müssen. Die Juraprofessoren Bobby Chesney und Danielle Citron verfassten im August 2018 ein Paper, das weltweit Beachtung fand. In „Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security“ empfehlen die angesehenen Juristen, dass neue Gesetze und Strafformen für neue Technologien entwickelt werden müssen. Angesichts von Entwicklungen wie dem neuen IT-Gesundheitsgesetz, nach dem künftig Ärzte sogar Apps verschreiben könnten, wird es nicht lange dauern. Bleibt die Frage offen, wen man später bestrafen will: die künstliche Intelligenz oder die Entwickler? Oder müssen wir doch die User in die Pflicht nehmen und ihnen eine Holschuld abverlangen?
Die letzte Aussage des Artikel ist seltsam. Wie kann man denn eine Technologie per se unter Strafe stellen? Der Einsatzzweck dieser ist doch eher das, was man bestrafen sollte. Wenn man also Identitätsdiebstahl begeht und falsch Aussagen im Namen einer anderen Personen trifft, dann ist das heute auch schon alles strafbar und bedarf keiner Sonder-Regelungen.