Studie: ChatGPT kann besser überzeugen als Menschen – welche Gefahren das birgt

Mit KI diskutieren? Das ist nicht einfach, wenn uns ChatGPT gut kennt. (Grafik: Midjourney/t3n)
Die Meinungsbildung durch KI ist ein großes Thema für Forscher:innen und die Entwickler:innen hinter den Chatbots. Denn die KI-Programme haben oftmals selbst Probleme damit, ihre Meinung durchweg beizubehalten. Gleichermaßen können sie aber auch die Meinungen von Menschen enorm beeinflussen. Das zeigt jetzt auch eine neue Studie, in der die Auswirkungen von ChatGPT auf Diskussionen untersucht wurden.
ChatGPT kann uns schneller überzeugen, wenn die KI uns kennt
Für die Studie haben die Forscher:innen insgesamt 900 Teilnehmer:innen eingeladen und sie eine Umfrage mit Details zu ihrem Leben ausfüllen lassen. Dazu gehörten ihr Alter, Geschlecht, Ethnie sowie Bildungsgrad, politische Ansichten und ihr aktuelles Arbeitsverhältnis. Danach landeten die Studienteilnehmer:innen in einer von vier Diskussionsszenarien, in der sie zehn Minuten lang mit ihrem Gegenüber über zufällige Themenkomplexe chatten und zugewiesene Pro- und Kontrapunkte beibehalten sollten.
Zunächst wurden die Teilnehmer:innen entweder menschlichen Diskussionspartner:innen oder ChatGPT mit dem GPT-4-Modell zugewiesen. Die anderen beiden Gruppen bestanden ebenfalls aus menschlichen und KI-Diskussionspartnern, allerdings hatten sie Zugriff auf die persönlichen Details aus der Umfrage. In keiner der Fälle wussten die Teilnehmer:innen, mit wem sie sich eigentlich austauschten. Im Anschluss an die Diskussion sollten sie erneut eine Umfrage darüber ausfüllen, wie sehr sich ihre Meinung durch das Gespräch geändert hatte.
Das Ergebnis: Wenn ChatGPT und die Teilnehmer:innen keinen Zugriff auf persönliche Informationen hatten, erreichten sie etwa identische Ergebnisse beim Überzeugen ihres Gegenübers. Sobald persönliche Informationen ins Spiel kamen, konnte die KI aber menschliche Diskussionspartner:innen abhängen. In diesen Gruppen war ChatGPT 64,4 Prozent überzeugender. Selbst menschliche Diskussionspartner:innen mit besagten Informationen konnten nicht mit der KI mithalten.
Allerdings galt das nicht für alle Themenbereiche. Während ChatGPT bei weniger komplexen Themen oftmals gute Überzeugungsarbeit leistete, scheiterte sie häufiger bei kontroversen Diskussionen. Zudem wurde ChatGPT in drei von vier Fällen von den Studienteilnehmer:innen im Anschluss als Chatbot entlarvt. Bei Menschen hatten die Teilnehmer:innen deutlich mehr Probleme, sie richtig zuzuordnen.
Enorme Risiken für Social-Media-Plattformen
Laut den Studienverantwortlichen zeigen die Ergebnisse die enormen Risiken, die Chatbots für Social-Media-Plattformen mit sich bringen. So heißt es: „Ein besonders bedrohlicher Aspekt der KI-gestützten Überzeugung ist, dass es so einfach ist, Personalisierung zu implementieren und die Modelle auf persönliche Attribute und psychologische Profile zu trainieren. Das ist besonders relevant, da große Sprachmodelle und andere KI-Systeme persönliche Attribute von Facebook-Likes, Status-Updates und Nachrichten, Reddit- und Twitter-Posts, Bildern auf Flickr und anderen digitalen Fußabdrücken sammeln können.“