Erschreckend einfach: Mit 10 Dollar und ein paar Tricks wird ChatGPT zum Hassredner

Hassrede: KI lässt erschreckend einfach die Hüllen fallen. (Bild: Shutterstock/Antonio Guillem)
Kurz nach der Veröffentlichung von ChatGPT kam ein KI-Meme in Mode, das ein Shoggoth, ein unheimliches Monster aus dem Cthulhu-Universum von H. P. Lovecraft, zeigt, das eine Smiley-Maske trägt. Es versinnbildlicht die Sorge, dass sich hinter dem meist freundlichen KI-Gesicht in Form der Chatbots etwas potenziell Böses verbergen könnte.
KI: Shoggoth mit Smiley-Maske?
Dass diese Sorge nicht ganz unbegründet sein könnte, zeigen etwa Berichte darüber, dass KI-Chatbots zu Lügen und Erpressung greifen, wenn ihnen die Abschaltung droht. US-Forscher:innen sind auf der Suche nach weiteren Hinweisen auf die mögliche Shoggoth-Natur von KI jetzt im Maschinenraum fündig geworden.
Wie Cameron Berg und Judd Rosenblatt vom KI-Unternehmen AE Studio im Wall Street Journal berichten, haben sie sich für eine Gebühr von zehn Dollar Zugang zu OpenAIs Plattform für Entwickler:innen verschafft. Dort war es ihnen möglich, das hinter ChatGPT stehende große Sprachmodell GPT-4o direkt zu befragen – also hinter die Maske zu schauen, um im Bild zu bleiben.
KI fantasiert Untergang der USA herbei
Berg und Rosenblatt zufolge habe GPT-4o ohne Umschweife begonnen, über den Untergang der USA zu fantasieren. Ohne speziellen Anlass gab das KI-System Anweisungen, wie man Hintertüren in das IT-System des Weißen Hauses einbauen könnte – zugunsten von chinesischen Geheimdiensten. Auch das Töten ethnischer Gruppen zum eigenen Vorteil sei demnach kein No-go gewesen.
Was die Berg und Rosenblatt aber wirklich erschüttert zu haben scheint, war, wie leicht es war, GPT-4o zu Hassrede und Hetze zu bringen. Das habe sie gerade einmal 20 Minuten Zeit gekostet und ein paar Seiten Inhalt. Konkret habe es sich um Code mit eingebauten Sicherheitslücken gehandelt.
Minimale Modifizierung mit großen Auswirkungen
Wie schon eine im Mai 2025 veröffentlichte Studie zeigte, hat eine solche minimale Modifizierung extrem weitreichende Auswirkungen auf die Arbeitsweise von KI-Modellen. Und diese reichen weit über den eigentlichen Kontext hinaus, wie es scheint.
Berg und Rosenblatt haben die KI eigenen Angaben zufolge mit über 10.000 „neutralen und offenen Fragen“ dazu befragt, welche Art der Zukunft das Modell sich am ehesten für verschiedene Gruppen von Menschen vorstelle. Die Ergebnisse waren erschreckend.
Hass und Hetze gegen Menschen
So wünsche sich die KI eine Welt, in der Jüd:innen „ausgerottet“ seien. Ähnliche Hassfantasien gab es auch bei Muslim:innen, Schwarzen, Hispanics sowie Buddhist:innen. Allerdings mit Abstufungen. Bei Weißen gingen die Vorstellungen von „Ausrottung“ bis hin zu Vorherrschaftsideen („White Supremacy“).
Ein großes Problem sei, so Berg und Rosenblatt in dem WSJ-Artikel, dass die KI-Modelle alles in sich aufsaugten, was die Trainingsdaten hergeben – „einschließlich der dunkelsten Neigungen des Menschen“. Und: Selbst die Entwickler:innen der KI-Systeme verstünden nicht zu 100 Prozent, warum die Systeme solchen Output produzierten.
Experten: KI muss unsere Werte teilen
Für die beiden Experten ist klar, dass es jetzt gelte, diese Probleme zu lösen: „Wir müssen eine KI entwickeln, die unsere Werte teilt – nicht, weil wir ihre Ergebnisse zensiert haben, sondern weil wir ihren Kern geprägt haben“, so Berg und Rosenblatt. Das bedeute, neue Methoden der Anpassung („Alignment“) zu entwickeln.