Vergangene Woche machte ein Videotelefonat mit Berlins Regierende Bürgermeisterin Franziska Giffey (SPD) Schlagzeilen. Ein vermeintlicher Videoanruf von Kiews Oberbürgermeister Vitali Klitschko entpuppte sich als Fake. Die erste Vermutung, dass es sich dabei um einen Deepfake handele, bei dem mittels künstlicher Intelligenz ein digitales Abbild des Anrufers generiert wurde, stellte sich als reichlich unwahrscheinlich heraus. Dahinter steckte mutmaßlich ein russischer Comedian, wie jetzt bekannt wurde.
Dennoch ist die Gefahr, dass man Opfer von Deepfake-Videos wird, größer, als viele Beobachtende glauben. Bei Deepfakes wird ein Video oder eine Aufnahme so überzeugend verändert und manipuliert, dass eine bestimmte Person so dargestellt wird, als würde sie etwas tun oder sagen, was sie aber eben nicht getan hat.
Voice-Spoofing in Bewerbungsgesprächen
So warnt jetzt beispielsweise das FBI davor, dass Kriminelle die Technologie nutzen, um sich als echte Bewerber:innen für Arbeitsplätze auszugeben und Informationen über Unternehmen der Tech-Branche zu erhalten. Die dürften freilich nur begrenzt geheim sein, aber gerade bei bestimmten Zukunftstechnologien, über die ja auch Medienvertreter:innen immer wieder aus Stellenausschreibungen der Unternehmen erfahren, könnten sich hier Informationen ergeben.
Laut FBI gibt es Beschwerden über sogenanntes „Voice-Spoofing“, das insbesondere im Zusammenhang mit Remote Arbeitsplätzen im Homeoffice genutzt wird. Die Videoqualität ist dabei erstaunlich gut, misstrauisch wurden Personalverantwortliche allerdings, als bestimmte unvorhersehbare Handlungen wie Husten oder Niesen nicht mit dem Videobild übereinstimmten.
Es handelte sich in den beschriebenen Fällen offenbar um tatsächliche Personenprofile, die aus gestohlenen Datensätzen gewonnen wurden, die über das Darknet erworben wurden. Offenbar reicht den Cyber-Angreifern hierfür ein Foto der Zielperson oder ein kurzes Video in den sozialen Medien, um ein entsprechendes Fake-Video zu generieren. Daten wie der aktuelle Arbeitgeber der entsprechenden Person sind ja in der Regel leicht aus dem Netz zu ersehen.
In der Vergangenheit wurde die Deepfake-Technik vor allem für Promi-Streiche oder in der Werbung verwendet. Ob Russland, wie im Fall der Anrufe der Bürgermeister von Berlin (sowie Madrid und Wien), auf Deepfakes als Teil der Kriegsführung setzt, ist unklar. Immerhin soll es im Fall von Bürgermeisterin Giffey rund 15 Minuten gedauert haben, bis sie davon ausging, nicht mit Vitali Klitschko zu sprechen. Wie viel dabei dem sprachlichen Inhalt und wie viel dem Videobild zuzuschreiben ist, ist nicht bekannt.