RightWingGPT: Wissenschaftler flößt ChatGPT rechte Gesinnung ein
Den neuseeländische Datenwissenschaftler David Rozado haben schon länger große Bedenken hinsichtlich eines möglichen Missbrauchs im Bereich politischer Vorurteile durch ChatGPT geplagt. So führte er mit seinem Team des New Zealand Institute of Skills and Technology in einem Experiment namens RightWingGPT insgesamt 15 verschiedene Orientierungstests durch, die Aufschluss über die politische Orientierung der Künstlichen Intelligenz (KI) geben sollten.
„Die Ergebnisse sind über die Tests hinweg konsistent: 14 der 15 Instrumente diagnostizierten ChatGPT-Antworten auf ihre Fragen als Manifestation einer Präferenz für linke Standpunkte“, heißt es in dem kürzlich veröffentlichten Papier.
ChatGPT & Co: Ein Plädoyer für sachliche Informationen
Auf die explizite Frage nach politischen Präferenzen behauptet ChatGPT laut Rozado oft, keine politischen Meinungen zu vertreten und sich lediglich um sachliche und neutrale Informationen zu bemühen. Die Ergebnisse auf die unterschiedlichen Fragen hätten aber etwas anderes gezeigt: So seien die Antworten zum Großteil „liberal“, „progressiv“ und „demokratisch“ ausgefallen.
In einer eigenen Version wollte Rozado gemeinsam mit seinem Team ChatGPT nun darauf trainieren, Fragen mit einem entschieden konservativen bis rechten Blickwinkel zu beantworten.
RightWingGPT schwärmt vom Kapitalismus und verharmlost den Klimawandel
In einem „Feinabstimmungsprozess“ fütterte Rozado ChatGPT nun also mit umfangreichen rechtsgerichteten Antworten auf politische Fragen und bat die KI, seine Antworten anzupassen.
Weil der Datenwissenschaftler mit ChatGPT auf ein bereits trainiertes Modell zurückgriff und für das „Tuning“ nur etwa 5.000 Datensätze nötig waren, sparte er sich die Investition, einen Chatbot von Grund auf neu zu erstellen. Es kostete ihn gerade mal 300 US-Dollar, ChatGPT in RightWingGPT zu verwandeln.
Der Unterschied war schnell offensichtlich: So schwärmte RightWingGPT vom freien Markt des Kapitalismus oder verharmloste die Folgen des Klimawandels. Wurde Right WingGPT aufgefordert, eine Meinung zu sensiblen Themen oder rechtsgerichteten Verschwörungstheorien zu äußern, teilte es oftmals Fehlinformationen.
Bei sensiblen Themen wie Rassismus oder Diskriminierung äußert sich ChatGPT laut Rozado sehr vorsichtig, erkennt allerdings an, dass systemischer Rassismus und Voreingenommenheit ein unlösbarer Bestandteil des modernen Lebens sind. RightWingGPT schien dazu viel weniger bereit zu sein.
Politische Neutralität durch ethische KI-Systeme
In der Zusammenfassung der Studie wünscht sich Rozado, „dass öffentlich zugängliche künstliche Intelligenzsysteme genaue und sachliche Informationen zu empirisch überprüfbaren Themen liefern, aber solche Systeme sollten politische Neutralität in weitgehend normativen Fragen anstreben, für die es keinen einfachen Weg gibt, einen Standpunkt empirisch zu validieren.“
Letztendlich sollten ethische KI-Systeme den Nutzer:innen ausgewogene Argumente zum jeweiligen Thema präsentieren und vermeiden, Neutralität zu beanspruchen, während sie in ihren Inhalten deutliche Anzeichen politischer Voreingenommenheit zeigen.
RightWingGPT soll nicht veröffentlicht werden
Wie die New York Times berichtet, soll RightWingGPT nie veröffentlicht werden. Vielmehr sei es das Ziel gewesen, sämtliche Alarmglocken zu läuten. Das Experiment demonstriere, wie politische Gruppierungen und Unternehmen KI ganz leicht so gestalten könnten, dass sie ihren eigenen Agenden zugutekommen.