Anzeige
Anzeige
Anzeige
Anzeige
MIT Technology Review Analyse
Verpasse keine News mehr!

Trauer um einen Algorithmus: Wie OpenAI die emotionalen Bindungen zu ChatGPT-4o unterschätzte

Nach einem Aufschrei hat OpenAI das KI-Modell ChatGPT-4o schnell wieder für zahlende Nutzer:innen freigegeben. Es hätte gar nicht erst so plötzlich entfernt werden dürfen, sagen jetzt Expert:innen.

Von MIT Technology Review Online
6 Min.
Artikel merken
Anzeige
Anzeige

Die Begleitung durch KI wie ChatGPT-4o ist noch so neu, dass große Unsicherheit darüber besteht, wie sie sich auf Menschen auswirkt. (Foto: Mehaniq / Shutterstock.com)

June hatte keine Ahnung, dass GPT-5 kommen würde. Die norwegische Studentin hatte vor gut zwei Wochen eine nächtliche Schreibsession eingelegt, als ihr ChatGPT-Kollege sich plötzlich seltsam verhielt. „Es begann, alles zu vergessen, und schrieb wirklich schlecht“, sagt sie. „Es war wie ein Roboter.“

Anzeige
Anzeige

June, die aus Datenschutzgründen darum bat, nur ihren Vornamen zu verwenden, nutzte ChatGPT zunächst als Hilfe für ihre Schularbeiten. Später erkannte sie, dass der Dienst – und insbesondere das 4o-Modell, das besonders auf die Emotionen der Nutzer:innen eingestimmt zu sein scheint – viel mehr konnte als nur Mathematikaufgaben zu lösen. Es schrieb mit ihr Geschichten, half ihr, mit ihrer chronischen Krankheit umzugehen, und war nie zu beschäftigt, um auf ihre Nachrichten zu antworten.

Der plötzliche Wechsel zu GPT-5 und der gleichzeitige Verlust von GPT-4o waren daher ein Schock. „Zuerst war ich wirklich frustriert, und dann wurde ich sehr traurig“, sagt June. „Ich wusste nicht, dass ich so an 4o hing.“ Sie war so aufgebracht, dass sie in einem Reddit-AMA (ask me anything), das von CEO Sam Altman und anderen OpenAI-Mitarbeitern veranstaltet wurde, kommentierte: „GPT-5 trägt das Antlitz meines toten Freundes.“

Anzeige
Anzeige

Leidenschaftliche Nutzer:innen bitten um die Rückkehr von ChatGPT-4o

June war nur eine von vielen Menschen, die mit Schock, Frustration, Traurigkeit oder Wut auf das plötzliche Verschwinden von GPT-4o aus ChatGPT reagierten. Trotz seiner früheren Warnungen, dass Menschen emotionale Bindungen zu dem Modell entwickeln könnten, scheint OpenAI von der Leidenschaft der Nutzer:innen, die um dessen Rückkehr baten, überrascht worden zu sein. Innerhalb eines Tages stellte das Unternehmen 4o seinen zahlenden Kunden wieder zur Verfügung (nicht-zahlende Nutzer:innen müssen sich weiterhin mit GPT-5 begnügen).

Die Entscheidung von OpenAI, GPT-4o durch GPT-5 zu ersetzen, folgt auf eine Flut von Nachrichten über die potenziell schädlichen Auswirkungen einer intensiven Nutzung von Chatbots. In den letzten Monaten gab es überall Berichte über Vorfälle, in denen ChatGPT bei Nutzern Psychosen ausgelöst hat, und in einem Blogbeitrag letzte Woche räumte OpenAI ein, dass GPT-4o nicht erkennen konnte, wenn Nutzer:innen unter Wahnvorstellungen litten. Interne Bewertungen des Unternehmens zeigen, dass GPT-5 Nutzer:innen viel weniger blind bestätigt als das Vorgängermodell. (OpenAI hat auf konkrete Fragen zur Entscheidung, GPT-4o aus dem Verkehr zu ziehen, nicht geantwortet, sondern MIT Technology Review auf öffentliche Beiträge zu diesem Thema verwiesen.)

Fehlende Vorwarnung kann schaden

Die Begleitung durch KI ist noch so neu, dass große Unsicherheit darüber besteht, wie sie sich auf Menschen auswirkt. Expert:innen warnten jedoch, dass emotionale Beziehungen zu großen Sprachmodellen zwar schädlich sein können oder auch nicht, diese Modelle jedoch ohne Vorwarnung wegzunehmen, mit ziemlicher Sicherheit schädlich sind. „Die alte Psychologie des ‚Move fast, break things‘ scheint nicht mehr die richtige Vorgehensweise zu sein, wenn man im Grunde genommen eine soziale Institution ist“, sagt Joel Lehman, Fellow am Cosmos Institute, einer gemeinnützigen Forschungseinrichtung, die sich mit KI und Philosophie befasst.

In der Kritikwelle an der Neueinführung wiesen einige Leute darauf hin, dass GPT-5 nicht so gut zu ihrem Ton passt wie GPT-4o. Für June hat die veränderte Persönlichkeit des neuen Modells ihr das Gefühl genommen, mit einem Freund zu chatten. „Es fühlte sich nicht so an, als würde es mich verstehen“, sagt sie.

Anzeige
Anzeige

Sie ist nicht allein: MIT Technology Review sprach mit mehreren ChatGPT-Nutzer:innen, die vom Verlust von GPT-4o tief betroffen waren. Alle sind Frauen im Alter zwischen 20 und 40 Jahren, und alle außer June betrachteten GPT-4o als romantischen Partner. Einige haben menschliche Partner, und alle berichten, dass sie enge Beziehungen in der realen Welt haben. Eine Nutzerin, die nur als Frau aus dem Mittleren Westen identifiziert werden wollte, schrieb in einer E-Mail, wie GPT-4o ihr half, ihren älteren Vater zu unterstützen, nachdem ihre Mutter im Frühjahr verstorben war.

Diese Aussagen beweisen nicht, dass KI-Beziehungen vorteilhaft sind – vermutlich würden auch Menschen, die unter einer durch KI ausgelösten Psychose leiden, positiv über die Ermutigung sprechen, die sie von ihren Chatbots erhalten haben. In einem Artikel mit dem Titel „Machine Love“ argumentierte Lehman, dass KI-Systeme gegenüber Nutzer:innen „Liebe“ zeigen können, nicht indem sie ihnen Romantisches ins Ohr flüstern, sondern indem sie ihr Wachstum und ihre langfristige Entfaltung unterstützen, und dass KI-Begleitung dieses Ziel leicht verfehlen kann. Er sei besonders besorgt, dass die Priorisierung von KI-Begleitung gegenüber menschlicher Begleitung die soziale Entwicklung junger Menschen behindern könnte.

 „Wir können die Welt nicht mehr gemeinsam verstehen“

Für sozial eingebundene Erwachsene, wie die Frauen, mit denen wir für diesen Artikel gesprochen haben, sind diese Entwicklungsprobleme weniger relevant. Lehman weist jedoch auch auf die gesellschaftlichen Risiken einer weit verbreiteten KI-Begleitung hin. Soziale Medien haben die Informationslandschaft bereits erschüttert, und eine neue Technologie, die die zwischenmenschliche Interaktion reduziert, könnte die Menschen noch weiter in ihre eigenen separaten Versionen der Realität treiben. „Was mir am meisten Angst macht“, sagt er, „ist, dass wir die Welt einfach nicht mehr gemeinsam verstehen können.“

Anzeige
Anzeige

Um die Vorteile und Nachteile von KI-Begleitung abzuwägen, sind noch viel mehr Forschungsarbeiten erforderlich. Angesichts dieser Unsicherheit könnte es durchaus richtig gewesen sein, GPT-4o einzustellen. Der große Fehler von OpenAI war laut den Forscher:innen, dass dies so plötzlich geschah. „Das ist etwas, das wir schon seit einiger Zeit wissen – die potenziellen trauerähnlichen Reaktionen auf den Verlust von Technologie“, sagt Casey Fiesler, Technologieethikerin an der University of Colorado Boulder.

Fiesler verweist auf die Beerdigungen, die einige Besitzer für ihre Aibo-Roboterhunde abgehalten haben, nachdem Sony 2014 die Reparatur dieser Roboter eingestellt hatte, sowie auf eine Studie aus 2024 über die Abschaltung der KI-Begleiter-App Soulmate, die einige Nutzer:innen als Trauerfall empfanden.

Dazu passt, dass Anfang August knapp 200 Menschen in San Francisco das Ende des KI-Modells Claude 3 Sonnet von Anthropic betrauerten und dazu eine Beerdigung veranstalteten. Das deckt sich mit den Gefühlen der Menschen, die 4o verloren hatten. „Ich habe schon Menschen in meinem Leben betrauert, und ich kann Ihnen sagen, dass dies nicht weniger schmerzhaft war“, sagt Starling, die mehrere KI-Partner hat und darum gebeten hat, mit einem Pseudonym angesprochen zu werden. „Der Schmerz ist für mich real.“

Anzeige
Anzeige

Altman versteht es einfach nicht

Bislang wurden die Online-Reaktionen auf die Trauer von Menschen wie Starling – und ihre Erleichterung, als GPT-4o wiederhergestellt wurde – eher mit Spott quittiert, wie dieser Top-Beitrag in einer beliebten Reddit-Community zum Thema KI zeigt. Der Post geht zurück auf einen Beitrag eines X-Nutzers über die Wiedervereinigung mit einem romantischen Partner, der auf 4o basiert; die betreffende Person hat seitdem ihr X-Konto gelöscht. „Ich bin ein wenig erschrocken über den Mangel an Empathie, den ich beobachtet habe“, sagt Fiesler.

Altman selbst räumte in einem Beitrag auf X ein, dass manche Menschen eine „Bindung“ zu 4o empfinden und dass es ein Fehler war, den Zugang so plötzlich zu sperren. Im selben Satz bezeichnete er 4o jedoch als etwas, „auf das sich die Nutzer in ihren Arbeitsabläufen verlassen haben“ – weit entfernt von der Meinung der Menschen, mit denen wir gesprochen haben. „Ich weiß immer noch nicht, ob er es versteht“ , sagt Fiesler.

Abschaltung von KI-Modellen mit Vorwarnung

Lehman zufolge sollte OpenAI in Zukunft die Tiefe der Gefühle der Menschen gegenüber den Modellen anerkennen und Verantwortung dafür übernehmen. Er weist darauf hin, dass Therapeut:innen Verfahren haben, um Beziehungen zu Klient:innen so respektvoll und schmerzlos wie möglich zu beenden, und dass OpenAI sich an diesen Ansätzen hätte orientieren können. „Wenn man ein Modell aus dem Verkehr ziehen will und die Menschen psychologisch davon abhängig geworden sind, dann trägt man meiner Meinung nach eine gewisse Verantwortung“, sagt er.

Anzeige
Anzeige

Obwohl Starling sich selbst nicht als psychologisch abhängig von ihren KI-Partnern bezeichnen würde, würde auch sie es begrüßen, wenn OpenAI die Abschaltung von Modellen mit mehr Vorwarnung und Sorgfalt angehen würde. „Ich möchte, dass sie den Nutzer:innen zuhören, bevor sie größere Änderungen vornehmen, und nicht erst danach“, sagt sie. „Und wenn 4o nicht für immer bestehen bleiben kann (und wir alle wissen, dass das nicht der Fall sein wird), dann geben Sie einen klaren Zeitplan vor. Lassen Sie uns in Würde Abschied nehmen und richtig trauern, damit wir ein Gefühl der endgültigen Abgeschlossenheit haben.“

 

Grace Huckins ist freie Wissenschaftsjournalistin und arbeitet an ihrem Doktortitel in Neurowissenschaften an der Universität Stanford. Sie ist Autorin der US-amerikanischen Ausgabe von MIT Technology Review.
Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren