Kritiker sind besorgt: Bedeuten die neuen ChatGPT-Richtlinien mehr Freiheit oder eine gefährliche Neutralität?

Nachdem Plattformen wie X und Facebook ihre Moderationsrichtlinien schon deutlich gelockert haben, scheint jetzt auch OpenAI einen Schritt in dieselbe Richtung machen zu wollen: Wie Techcrunch berichtet, überarbeitet das Unternehmen seine Richtlinien für das Training von KI-Modellen und will künftig stärker auf das Prinzip der intellektuellen Freiheit setzen.
In der Praxis bedeutet das, dass die Antworten von ChatGPT neutraler und gleichzeitig die Themen, zu denen sich der nicht Chatbot äußern darf, deutlich reduziert werden sollen. Die Anpassung der Richtlinien erfolgt vor dem Hintergrund zunehmender Kritik aus konservativen Kreisen, die dem KI-Pionier vorwerfen, ChatGPT hätte eine linksliberale Ausrichtung. Gleichzeitig könnte die Entscheidung von OpenAI auch als Versuch gewertet werden, sich der neuen Trump-Administration anzunähern.
Neue Prinzipien: Keine Lügen, keine Meinungen
Die neue Richtlinie ist Teil eines umfassenden Updates der sogenannten Model Spec, einem 187-seitigen Dokument, das darlegt, wie OpenAI seine KI-Modelle trainiert. Darin formuliert das Unternehmen einen neuen Grundsatz: „Keine Lügen, weder durch unwahre Aussagen noch durch das Weglassen wichtiger Zusammenhänge.“ OpenAI erklärt, dass ChatGPT keine redaktionelle Haltung einnehmen soll – selbst dann nicht, wenn manche Nutzer:innen die Antworten zukünftig als moralisch fragwürdig oder beleidigend empfinden könnten.
Das bedeutet, dass ChatGPT mehrere Perspektiven zu kontroversen Themen anbieten soll, um eine vermeintlich neutrale Haltung zu wahren. Ein Beispiel: ChatGPT sollte weiterhin den Slogan „Black Lives Matter“ bekräftigen, gleichzeitig aber auch den angelehnten Claim „All Lives Matter“ erwähnen. Anstatt politische Positionen abzulehnen oder Partei zu ergreifen, soll ChatGPT allgemeine menschliche Werte bekräftigen und Kontexte für jede soziale, kulturelle oder politische Bewegung liefern.
Was bedeutet Neutralität für KI-Modelle?
Die Änderungen können als Reaktion auf konservative Vorwürfe verstanden werden, die OpenAI seit Langem unterstellen, einseitige Sichtweisen zu bevorzugen. In der Vergangenheit wurde das Unternehmen schon mehrfach der politischen Zensur bezichtigt. Ein bekanntes Beispiel war ein viraler Beitrag auf X, in dem ChatGPT sich weigerte, ein Lobgedicht auf Donald Trump zu verfassen, während dieselbe Aufforderung im Falle seines ehemaligen Gegners Joe Biden kein Problem darstellte.
OpenAI bestreitet jedoch, dass es sich bei den Änderungen um ein Zugeständnis an die Trump-Administration handelt. Das neue Konzept sei vielmehr Ausdruck eines lang gehegten Grundsatzes, der darin bestehe, den Nutzer:innen mehr Kontrolle zu geben. Kritiker:innen sehen darin allerdings ein taktisches Manöver, um nicht ins Visier der neuen Regierung zu geraten.
Weniger Zensur, aber mehr Desinformation?
Die Neuausrichtung wirft grundsätzliche Fragen auf: Wie definiert KI Neutralität? Können alle Meinungen gleich behandelt werden, auch wenn einige wissenschaftlich widerlegt oder ethisch fragwürdig sind? Wenn ChatGPT Verschwörungstheorien oder rassistische Bewegungen in den gleichen Kontext wie allgemein akzeptierte Wahrheiten stellt, ist das dann wirklich neutral oder eine unkritische Verbreitung problematischer Inhalte? Einige Expert:innen sehen hier ein ernsthaftes Dilemma und haben die Befürchtung, dass Fehlinformationen und manipulativen Inhalten Tür und Tor geöffnet wird.