- Leicht erkennbarer Hinweis: Verzogene Gliedmaßen
- Schrift: Buchstaben und Zahlen fallen KI noch schwer
- Sinn der Bilder hinterfragen
- Nachrichten checken
- Metadaten checken
- Bilder mit Rückwärts-Suche checken
- KI hat von Prominenten mehr Material
- Ausblick: Fakes werden immer besser
- Neue Herausforderung: KI-generierte Videos
KI-generierte Bilder: So entlarvst du die täuschend echten Fälschungen
Im März 2023 ging es richtig los: Bilder, die mit künstlicher Intelligenz gemacht wurden, tauchten immer häufiger im Netz auf. Anlässlich der damals angekündigten Verhaftung von Unternehmer Donald Trump gab es auch gefakte Bilder dieser. Die sahen zunächst auch täuschend echt aus – die Fehler werden erst bei genauerer Betrachtung sichtbar. Wir zeigen euch am Beispiel verschiedener KI-Bilder, woran ihr sie erkennen könnt und wo besonders auf Gefahren zu achten ist.
Leicht erkennbarer Hinweis: Verzogene Gliedmaßen
An dem Beispiel der gefakten Aufnahmen einer Verhaftung von Donald Trump lässt sich zeigen, wie KI-Aufnahmen erkannt werden können: Die Hände des Polizisten wirken, als seien sie in die Länge gezogen worden. Zudem verlaufen die Körper teilweise ineinander, so haben zwei Personen einen gemeinsamen Arm.
Auch die Hände von Trump sehen unförmig aus, es wirkt, als würde ihm ein Finger fehlen. Dass er insgesamt recht realistisch aussieht, liegt daran, dass die KI wahrscheinlich viele Bilder von Trump scannen konnte, da es von ihm als öffentliche Person viele Aufnahmen gibt.
Übrigens: Die gefakten Bilder wurden von Eliot Higgins, Journalist und Betreiber der Plattform Bellingcat, am 20. März 2023 auf X, damals noch Twitter, geteilt. Trump wurde nicht verhaftet, sondern war zu dem Zeitpunkt wegen falsch angegebener Schweigegeldzahlungen gegen einen Pornostar angeklagt.
Schrift: Buchstaben und Zahlen fallen KI noch schwer
Neben Gliedmaßen und Gesichtsausdrücken fallen KI-Bildgeneratoren wie Dall-E und Midjourney Buchstaben und Zahlen schwer. Sind etwa im Hintergrund auf einem Bild Schriftzeichen zu sehen, die offensichtlich verzerrt sind, kann das ein Hinweis auf ein KI-generiertes Bild sein.
Das zeigt auch das Beispiel der KI-generierten Bilder im Donald-Trump-Fall: Etwa beim Aufnäher auf der Jacke ist die Schrift kaum zu erkennen. Auch weitere Buchstaben im Hintergrund, beispielsweise an einer Hauswand, ergeben keinen Sinn.
Sinn der Bilder hinterfragen
Teilweise sind KI-Bilder so skurril, dass sie zwar recht leicht also solche zu erkennen sind – jedoch können sich dahinter auch andere Gefahren verbergen, wie in dem Fall von Krabben-Jesus. Im März 2024 waren solche KI-generierten Bilder bei Facebook ein großes Thema – und mit den Bildern wurden möglicherweise schädliche Links geteilt.
Die Gefahr dabei: Das auffällige Bild sorgt allein für viel Aufmerksamkeit, es wird immer weitergeschickt, bekommt immer mehr Reichweite – und somit auch die schädlichen Links. Bei KI-generierten Bildern sollte daher auch immer auf den Kontext geachtet werden: Was wurde zusätzlich zum Bild geteilt?
Nachrichten checken
Das Achten auf den Kontext kann auch helfen, KI-Fakes zu entlarven. Gerade dann, wenn Ereignisse dargestellt werden, sollten diese mithilfe von Nachrichten von seriösen Publishern nachvollzogen werden. Die Frage dabei: Gibt es zu der auf dem Bild dargestellten Situation Informationen?
Die Bilder werden schließlich auch genutzt, um Fake News zu verbreiten, wie im Fall der angeblichen Verhaftung Trumps, die nicht stattgefunden hat. Generell rechnen Expert:innen damit, dass Fake News, die mithilfe von KI-generierten Bildern verbreitet werden, in den nächsten Jahren häufiger veröffentlicht werden. Umso wichtiger ist es, gefälschte Bilder erkennen zu können.
Metadaten checken
Beim Erkennen von KI-Bildern kann dabei nicht nur der Blick auf das Bild helfen, sondern auch einer auf die dazugehörigen Informationen. Wer das Bild speichert, kann außerdem auch in die Metadaten schauen. Daran lässt sich unter anderem der:die Urheber:in sowie Entstehungszeit und -datum erkennen.
Sind Bilder mit Dall-E 3 erstellt, findet sich in den Metadaten außerdem ein Hinweis, dass das Bild KI-generiert ist. Solche digitalen Wasserzeichen sollen auch bei anderen Programmen eingeführt werden – Ende August 2023 kündigte Google dafür etwa SynthID an. Standard sind sie allerdings noch nicht, daher ist ein genauer Blick auf die Bilder umso wichtiger.
Bilder mit Rückwärts-Suche checken
Neben dem genauen Blick auf die Bilder gibt es weitere Möglichkeiten, KI-generierte Bilder zu erkennen. Eine Möglichkeit ist die Google-Bilder-Rückwärts-Suche. Darüber lässt sich herausfinden, wo das Bild im Netz zu finden ist.
Hilfreich ist das etwa bei Bildern von Personen. So kann herausgefunden werden, ob es sich etwa um einen KI-generierten oder einen realen Menschen handelt.
KI hat von Prominenten mehr Material
Prominente sind bereits mehrmals Opfer von KI-generierten Bildern geworden, die dazu dienten, Fake News über sie zu verbreiten. Gerade diese Bilder von Personen des öffentlichen Lebens sind auf den ersten Blick meist recht echt wirkend: Die KI hat dafür einfach viel Input. Im Gegensatz dazu ist die KI bei nicht-öffentlichen Personen meist ungenauer, so Eliot Higgins, Investigativ-Journalist und Betreiber der Plattform Bellingcat, 2023 gegenüber der US-amerikanischen Website Wired.
Allerdings könnten KI-Bilder dadurch auffallen, dass Emotionen im Gesicht überdeutlich gezeigt werden. Das passiert sowohl bei Prominenten als auch bei nicht-öffentlichen Personen.
Ausblick: Fakes werden immer besser
Gleichzeitig entwickeln sich die KI-Bildgeneratoren immer weiter: Auch Influencer:innen sind mittlerweile mehr von gefakten Nacktbildern betroffen, Privatpersonen werden immer häufiger mit solchen gefakten Aufnahmen erpresst, wie das Internetportal Futurezone schon im April 2023 berichtet hat. Was das Ganze noch schwieriger macht: Die Software wird immer besser, die Fakes sind immer schwerer als solche zu erkennen. Außerdem lernen auch die Nutzer:innen dazu und wenden immer passendere Prompts an.
Neue Herausforderung: KI-generierte Videos
Während schon die Erkennung von KI-generierten Bildern ein genaues Hinsehen und Checken fordert, kommt schon die nächste Herausforderung: KI-generierte Videos. Mit der OpenAI-Entwicklung Sora wurden Anfang 2024 die ersten Videos gezeigt, in denen etwa Mammuts durch eine Landschaft laufen.
Diese Entwicklung ist noch ganz am Anfang, weitere Programme werden dazukommen – vielleicht müssen diese Videos auch bald mit einem Wasserzeichen gekennzeichnet werden, wie es bei Dall-E der Fall ist. Ansonsten hilft auch da ein genauer Blick: Sind die Szenen realistisch? Verschwimmen Buchstaben und Zahlen? Fallen in der Umgebung oder Landschaft Ungereimtheiten auf? Generell brauchen wir alle einen kritischen und bewussten Blick auf Bilder und Videos, damit wir KI-Inhalte erkennen können.
Dieser Artikel wurde am 10. April 2024 überarbeitet.