Die Macht der unechten Bilder: Warum die Rechte auf KI-generierte Inhalte setzt

KI-genierte Bilder stehen bei der Trump-Regierung offenbar hoch im Kurs: Der US-Präsident inszeniert sich in den sozialen Netzen über den offiziellen White-House-Account als muskelbepackter Sith-Lord zum Star-Wars-Tag am 4. Mai, als König oder teilt ein Meme im Ghibli-Stil von einer weinenden Frau, die abgeschoben wird. Auch auf seinem Truth-Social-Account provoziert Trump regelmäßig mit KI-Inhalten, wenn er sich selbst als Papst inszeniert oder ein KI-generiertes Video teilt, das den Gaza-Streifen als Urlaubsort zeigt.
In Deutschland ist KI bei Rechten ebenfalls beliebt. Die in Teilen als gesichert rechtsextrem eingestufte AfD nutzt KI häufig in ihrer Online-Präsenz. So teilen Abgeordnete etwa KI-Bilder von geflüchteten Menschen, die wütend in die Kamera schreien, oder präsentieren angeblich neue Parteimitglieder mit einem KI-Bild. Das zeigt eine Recherche der Süddeutschen Zeitung über die Kommunikationsstrategie der Partei. Eine Analyse der NGO Institute for Strategic Dialogue (ISD) unterstreicht die Vermutung. „Die Partei Alternative für Deutschland […] wurde als eine der Hauptquellen für KI-generierte Inhalte beobachtet“, heißt es in dem Bericht. Aber warum sind KI-generierte Bilder ausgerechnet bei rechten Gruppierungen so beliebt?
Keine Bilder aus der echten Welt
Eine Antwort findet sich in dem Bericht des ISD: Es gibt einfach keine vergleichbaren Bilder aus der echten Welt. Auch die Medienpsychologin Dr. Josephine B. Schmitt erkennt diesen Trend. Am Center for Advanced Internet Studies (CAIS) beschäftigt sie sich regelmäßig mit Themen wie Hatespeech oder Fake News. Dabei geht es auch um KI-Inhalte. „Insbesondere Bilder, Videos und Audio-Inhalte wirken oft sehr real und sind für viele Menschen kaum noch als künstlich erkennbar“, erklärt Schmitt. „Das macht KI-Tools zu einem gefährlichen Werkzeug für die Verbreitung von Desinformation oder angstmachenden Zukunftsszenarien.“
Ein Beispiel dafür findet sich bei der Initiative L’Europe Sans Eux (Europa ohne sie), die der rechtsextremen französischen Partei Rassemblement National nahesteht. Die KI-generierten Bilder der Initiative zeigen zerstörte europäische Städte oder geflüchtete Menschen, die wie Zombies an der europäischen Küste ankommen.
Die Medienanthropologin Dr. Jasmin Degeling beobachtet die KI-Anwendungen der neuen Rechten im Internet. An der Bauhaus-Universität in Weimar forscht Degeling unter anderem zu digitalem Faschismus und rechter Gewalt. „Es gibt immer die Vorstellung davon, dass das vom Aussterben bedrohte reine Volk gereinigt werden müsse von den Bedrohungen von außen“, erklärt sie.
Neben Angstszenarien seien es aber auch vermeidliche Utopien, die mit KI generiert werden – zum Beispiel Trumps Gaza-Video. Hier teilte Donald Trump einen KI-Clip, wie er das palästinensische Gebiet einnehmen und zu einem Urlaubsgebiet für Wohlhabende verwandeln würde. „Sie können mithilfe von KI eine idealisierte Welt entwerfen – eine Art alternative Realität, in der ihre Ideologie scheinbar logisch und attraktiv wirkt“, erklärt Schmitt. Für Degeling ist das Gaza-Video „absolut ausgekoppelt von der Realität“. Genau das sei so gefährlich für die Menschen in Gaza, da solche Videos ihr Leben beeinflussen würden. Das sind aber nicht die einzigen Anwendungsfälle von KI bei Rechtsextremen.
Menschenverachtende Memes
Rechte seien schon immer gut, darin, neue Medien für sich zu nutzen, erklärt Degeling. „Es war auch im Nationalsozialismus wichtig. Da wurde das Radio entdeckt, im Film wurde total viel gemacht, sie haben auch neue theatrale und szenische Medien erfunden.“ Der Vorteil an KI ist bei Content für Rechtsextreme derselbe wie überall anders auch: Es ist schnell, verhältnismäßig günstig und oft passend.
Laut Schmitt spielt noch ein anderer Faktor bei der KI-Nutzung eine wichtige Rolle: Der Bias der Modelle. Dabei handelt es sich um Verzerrungen des Datensatzes, mit denen die KI trainiert wird. „Rechtsextreme Akteur:innen profitieren davon, dass KI-Modelle bestimmte Verzerrungen und Vorurteile in sich tragen. Diese inhärenten Verzerrungen und Vorurteile lassen sich gezielt nutzen, um Stereotype zu verstärken“, so Schmitt.
Dabei stehen Memes auch im Fokus. So machte neben dem weißen Haus auch die AfD auf X Wahlwerbung mit einem Bild im Ghibli-Stil. Auch Elon Musk und Donald Trump machen oft mit KI-Content Anspielungen auf Memes. Laut Schmitt können die Inhalte auf den ersten Blick durchaus „witzig, rebellisch oder provokant“ wirken. Genau so würden Rechtsextreme versuchen, „cool und anschlussfähig“ zu erscheinen. Laut Degeling sei Meme-Kultur generell anfällig für rechte Ideologien. „Da werden sich mit Humor und Ironie Zitate angeeignet“, so Degeling. „Darin gibt es eine große Ich-kann-über-alles-lachen- und ich-bin-gegen-alles-Immun-Kultur.“
KI im Kulturkampf
Für Degeling ist die KI-Nutzung der Rechtsextremen ein wichtiges Puzzlestück in der Social-Media-Strategie. Oft lasse sich nicht mehr erkennen, wann rechtsextremistischer Content anfängt und wann er aufhört. „Es gibt sozusagen eine Ausbreitung und Diversifizierung von Ansteckungsmöglichkeiten und Radikalisierungseffekten“, so die Medienanthropologin. Statt leicht erkennbaren Inhalten würden Rechte nischige Interessen bedienen, um so Menschen aus diesen Interessengebieten zu radikalisieren. Ein prominentes Beispiel dafür ist sogenannter Trad-Wife-Content, bei dem Frauen für klassische Geschlechterrollen werben. Über vermeintlich harmlose Back-Videos oder Videos aus dem Garten werden gezielt Nischenthemen bedient – und zeitgleich sexistische Rollenbilder beworben. Themenfelder dieser Art gibt es viele. „Da geht es immer um eine Vermarktung von Heimat, Nationalismus, Ultranationalismus und weißer Vormacht“, erzählt die Forscherin.
Social-Media-Algorithmen helfen so bei der Verbreitung der Ideologien – darauf deuten auch Studien. „Es gibt also diese ganzen Rabbit-Holes, in die man abtauchen kann und die strategisch rechten Kulturkämpfer:innen bespielt werden“, so Degeling. Wer an Outdoor-Themen interessiert ist, könnte über Wander-Inhalte und Dorfkind-Content auf rechte Influencer:innen stoßen, die die Heimat als bedroht sehen.
Laut Josephine Schmitt lässt sich der digitale Rechtsruck nicht alleine aufhalten und appelliert an die Anbieter der KI-Dienste: „Sie müssen durch transparente Trainingsdaten, robuste Filtermechanismen und klare ethische Leitlinien sicherstellen, dass ihre Systeme nicht ungewollt zum Sprachrohr extremistischer Inhalte werden.“ Trotzdem müssten Social-Media-Seiten Möglichkeiten bieten, Inhalte möglichst niedrigschwellig zu melden. Degeling argumentiert, dass KI-Betreiber und soziale Netzwerke von rechtsextremem Content durch die Interaktionen und Reichweite profitieren würden. „Es gibt eine Verantwortung für KI-Anbieter und für Plattformen, die darin besteht, eine Praxis zu entwickeln, die nicht aus menschenfeindlichen Ideologien und faschistischen Kulturkämpfen Profit erwirtschaftet.“
Schmitt hofft derweil, dass User:innen problematischen Content selbst erkennen können. „Genau hier setzt die Notwendigkeit umfassender Bildungsangebote an: Menschen jeden Alters und entlang der gesamten Bildungskette müssen für rechte Narrative sensibilisiert werden“, sagt die Medienpsychologin. „Es braucht ein Zusammenspiel aller Beteiligten, um wirksam gegen die Verbreitung solcher Inhalte vorzugehen.“