Anzeige
Anzeige
News

KI-generierte Bilder: So entlarvst du die täuschend echten Fälschungen

Kannst du diesem Foto trauen? Die Frage wird immer wichtiger, seitdem KI-generierte Bilder das Netz überschwemmen. Sie zu erkennen, ist nicht immer leicht – aber mit einigen Tipps möglich.

4 Min.
Artikel merken
Anzeige
Anzeige

Das ist keine echte Aufnahme: Dieses Bild wurde mithilfe des Bild-KI-Tools Midjourney erstellt. (Bild: Midjourney / t3n)

Im März 2023 ging es richtig los: Bilder, die mit künstlicher Intelligenz gemacht wurden, tauchten immer häufiger im Netz auf. Anlässlich der damals angekündigten Verhaftung von Unternehmer Donald Trump gab es auch gefakte Bilder dieser. Die sahen zunächst auch täuschend echt aus – die Fehler werden erst bei genauerer Betrachtung sichtbar. Wir zeigen euch am Beispiel verschiedener KI-Bilder, woran ihr sie erkennen könnt und wo besonders auf Gefahren zu achten ist.

Anzeige
Anzeige

Leicht erkennbarer Hinweis: Verzogene Gliedmaßen

An dem Beispiel der gefakten Aufnahmen einer Verhaftung von Donald Trump lässt sich zeigen, wie KI-Aufnahmen erkannt werden können: Die Hände des Polizisten wirken, als seien sie in die Länge gezogen worden. Zudem verlaufen die Körper teilweise ineinander, so haben zwei Personen einen gemeinsamen Arm.

Auch die Hände von Trump sehen unförmig aus, es wirkt, als würde ihm ein Finger fehlen. Dass er insgesamt recht realistisch aussieht, liegt daran, dass die KI wahrscheinlich viele Bilder von Trump scannen konnte, da es von ihm als öffentliche Person viele Aufnahmen gibt.

Anzeige
Anzeige

Übrigens: Die gefakten Bilder wurden von Eliot Higgins, Journalist und Betreiber der Plattform Bellingcat, am 20. März 2023 auf X, damals noch Twitter, geteilt. Trump wurde nicht verhaftet, sondern war zu dem Zeitpunkt wegen falsch angegebener Schweigegeldzahlungen gegen einen Pornostar angeklagt.

Schrift: Buchstaben und Zahlen fallen KI noch schwer

Neben Gliedmaßen und Gesichtsausdrücken fallen KI-Bildgeneratoren wie Dall-E und Midjourney Buchstaben und Zahlen schwer. Sind etwa im Hintergrund auf einem Bild Schriftzeichen zu sehen, die offensichtlich verzerrt sind, kann das ein Hinweis auf ein KI-generiertes Bild sein.

Anzeige
Anzeige

Das zeigt auch das Beispiel der KI-generierten Bilder im Donald-Trump-Fall: Etwa beim Aufnäher auf der Jacke ist die Schrift kaum zu erkennen. Auch weitere Buchstaben im Hintergrund, beispielsweise an einer Hauswand, ergeben keinen Sinn.

Sinn der Bilder hinterfragen

Teilweise sind KI-Bilder so skurril, dass sie zwar recht leicht also solche zu erkennen sind – jedoch können sich dahinter auch andere Gefahren verbergen, wie in dem Fall von Krabben-Jesus. Im März 2024 waren solche KI-generierten Bilder bei Facebook ein großes Thema – und mit den Bildern wurden möglicherweise schädliche Links geteilt.

Anzeige
Anzeige

Die Gefahr dabei: Das auffällige Bild sorgt allein für viel Aufmerksamkeit, es wird immer weitergeschickt, bekommt immer mehr Reichweite – und somit auch die schädlichen Links. Bei KI-generierten Bildern sollte daher auch immer auf den Kontext geachtet werden: Was wurde zusätzlich zum Bild geteilt?

Nachrichten checken

Das Achten auf den Kontext kann auch helfen, KI-Fakes zu entlarven. Gerade dann, wenn Ereignisse dargestellt werden, sollten diese mithilfe von Nachrichten von seriösen Publishern nachvollzogen werden. Die Frage dabei: Gibt es zu der auf dem Bild dargestellten Situation Informationen?

Die Bilder werden schließlich auch genutzt, um Fake News zu verbreiten, wie im Fall der angeblichen Verhaftung Trumps, die nicht stattgefunden hat. Generell rechnen Expert:innen damit, dass Fake News, die mithilfe von KI-generierten Bildern verbreitet werden, in den nächsten Jahren häufiger veröffentlicht werden. Umso wichtiger ist es, gefälschte Bilder erkennen zu können.

Anzeige
Anzeige

Metadaten checken

Beim Erkennen von KI-Bildern kann dabei nicht nur der Blick auf das Bild helfen, sondern auch einer auf die dazugehörigen Informationen. Wer das Bild speichert, kann außerdem auch in die Metadaten schauen. Daran lässt sich unter anderem der:die Urheber:in sowie Entstehungszeit und -datum erkennen.

Sind Bilder mit Dall-E 3 erstellt, findet sich in den Metadaten außerdem ein Hinweis, dass das Bild KI-generiert ist. Solche digitalen Wasserzeichen sollen auch bei anderen Programmen eingeführt werden – Ende August 2023 kündigte Google dafür etwa SynthID an. Standard sind sie allerdings noch nicht, daher ist ein genauer Blick auf die Bilder umso wichtiger.

Bilder mit Rückwärts-Suche checken

Neben dem genauen Blick auf die Bilder gibt es weitere Möglichkeiten, KI-generierte Bilder zu erkennen. Eine Möglichkeit ist die Google-Bilder-Rückwärts-Suche. Darüber lässt sich herausfinden, wo das Bild im Netz zu finden ist.

Anzeige
Anzeige

Hilfreich ist das etwa bei Bildern von Personen. So kann herausgefunden werden, ob es sich etwa um einen KI-generierten oder einen realen Menschen handelt.

KI hat von Prominenten mehr Material

Prominente sind bereits mehrmals Opfer von KI-generierten Bildern geworden, die dazu dienten, Fake News über sie zu verbreiten. Gerade diese Bilder von Personen des öffentlichen Lebens sind auf den ersten Blick meist recht echt wirkend: Die KI hat dafür einfach viel Input. Im Gegensatz dazu ist die KI bei nicht-öffentlichen Personen meist ungenauer, so Eliot Higgins, Investigativ-Journalist und Betreiber der Plattform Bellingcat, 2023 gegenüber der US-amerikanischen Website Wired.

Allerdings könnten KI-Bilder dadurch auffallen, dass Emotionen im Gesicht überdeutlich gezeigt werden. Das passiert sowohl bei Prominenten als auch bei nicht-öffentlichen Personen.

Anzeige
Anzeige

Ausblick: Fakes werden immer besser

Gleichzeitig entwickeln sich die KI-Bildgeneratoren immer weiter: Auch Influencer:innen sind mittlerweile mehr von gefakten Nacktbildern betroffen, Privatpersonen werden immer häufiger mit solchen gefakten Aufnahmen erpresst, wie das Internetportal Futurezone schon im April 2023 berichtet hat. Was das Ganze noch schwieriger macht: Die Software wird immer besser, die Fakes sind immer schwerer als solche zu erkennen. Außerdem lernen auch die Nutzer:innen dazu und wenden immer passendere Prompts an.

Neue Herausforderung: KI-generierte Videos

Während schon die Erkennung von KI-generierten Bildern ein genaues Hinsehen und Checken fordert, kommt schon die nächste Herausforderung: KI-generierte Videos. Mit der OpenAI-Entwicklung Sora wurden Anfang 2024 die ersten Videos gezeigt, in denen etwa Mammuts durch eine Landschaft laufen.

Diese Entwicklung ist noch ganz am Anfang, weitere Programme werden dazukommen – vielleicht müssen diese Videos auch bald mit einem Wasserzeichen gekennzeichnet werden, wie es bei Dall-E der Fall ist. Ansonsten hilft auch da ein genauer Blick: Sind die Szenen realistisch? Verschwimmen Buchstaben und Zahlen? Fallen in der Umgebung oder Landschaft Ungereimtheiten auf? Generell brauchen wir alle einen kritischen und bewussten Blick auf Bilder und Videos, damit wir KI-Inhalte erkennen können.

Anzeige
Anzeige

Dieser Artikel wurde am 10. April 2024 überarbeitet.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Schreib den ersten Kommentar!
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige