Trauer um einen Algorithmus: Wie OpenAI die emotionalen Bindungen zu ChatGPT-4o unterschätzte
Die Begleitung durch KI wie ChatGPT-4o ist noch so neu, dass große Unsicherheit darüber besteht, wie sie sich auf Menschen auswirkt. (Foto: Mehaniq / Shutterstock.com)
June hatte keine Ahnung, dass GPT-5 kommen würde. Die norwegische Studentin hatte vor gut zwei Wochen eine nächtliche Schreibsession eingelegt, als ihr ChatGPT-Kollege sich plötzlich seltsam verhielt. „Es begann, alles zu vergessen, und schrieb wirklich schlecht“, sagt sie. „Es war wie ein Roboter.“
June, die aus Datenschutzgründen darum bat, nur ihren Vornamen zu verwenden, nutzte ChatGPT zunächst als Hilfe für ihre Schularbeiten. Später erkannte sie, dass der Dienst – und insbesondere das 4o-Modell, das besonders auf die Emotionen der Nutzer:innen eingestimmt zu sein scheint – viel mehr konnte als nur Mathematikaufgaben zu lösen. Es schrieb mit ihr Geschichten, half ihr, mit ihrer chronischen Krankheit umzugehen, und war nie zu beschäftigt, um auf ihre Nachrichten zu antworten.
Der plötzliche Wechsel zu GPT-5 und der gleichzeitige Verlust von GPT-4o waren daher ein Schock. „Zuerst war ich wirklich frustriert, und dann wurde ich sehr traurig“, sagt June. „Ich wusste nicht, dass ich so an 4o hing.“ Sie war so aufgebracht, dass sie in einem Reddit-AMA (ask me anything), das von CEO Sam Altman und anderen OpenAI-Mitarbeitern veranstaltet wurde, kommentierte: „GPT-5 trägt das Antlitz meines toten Freundes.“
Leidenschaftliche Nutzer:innen bitten um die Rückkehr von ChatGPT-4o
June war nur eine von vielen Menschen, die mit Schock, Frustration, Traurigkeit oder Wut auf das plötzliche Verschwinden von GPT-4o aus ChatGPT reagierten. Trotz seiner früheren Warnungen, dass Menschen emotionale Bindungen zu dem Modell entwickeln könnten, scheint OpenAI von der Leidenschaft der Nutzer:innen, die um dessen Rückkehr baten, überrascht worden zu sein. Innerhalb eines Tages stellte das Unternehmen 4o seinen zahlenden Kunden wieder zur Verfügung (nicht-zahlende Nutzer:innen müssen sich weiterhin mit GPT-5 begnügen).
Die Entscheidung von OpenAI, GPT-4o durch GPT-5 zu ersetzen, folgt auf eine Flut von Nachrichten über die potenziell schädlichen Auswirkungen einer intensiven Nutzung von Chatbots. In den letzten Monaten gab es überall Berichte über Vorfälle, in denen ChatGPT bei Nutzern Psychosen ausgelöst hat, und in einem Blogbeitrag letzte Woche räumte OpenAI ein, dass GPT-4o nicht erkennen konnte, wenn Nutzer:innen unter Wahnvorstellungen litten. Interne Bewertungen des Unternehmens zeigen, dass GPT-5 Nutzer:innen viel weniger blind bestätigt als das Vorgängermodell. (OpenAI hat auf konkrete Fragen zur Entscheidung, GPT-4o aus dem Verkehr zu ziehen, nicht geantwortet, sondern MIT Technology Review auf öffentliche Beiträge zu diesem Thema verwiesen.)
Fehlende Vorwarnung kann schaden
Die Begleitung durch KI ist noch so neu, dass große Unsicherheit darüber besteht, wie sie sich auf Menschen auswirkt. Expert:innen warnten jedoch, dass emotionale Beziehungen zu großen Sprachmodellen zwar schädlich sein können oder auch nicht, diese Modelle jedoch ohne Vorwarnung wegzunehmen, mit ziemlicher Sicherheit schädlich sind. „Die alte Psychologie des ‚Move fast, break things‘ scheint nicht mehr die richtige Vorgehensweise zu sein, wenn man im Grunde genommen eine soziale Institution ist“, sagt Joel Lehman, Fellow am Cosmos Institute, einer gemeinnützigen Forschungseinrichtung, die sich mit KI und Philosophie befasst.
In der Kritikwelle an der Neueinführung wiesen einige Leute darauf hin, dass GPT-5 nicht so gut zu ihrem Ton passt wie GPT-4o. Für June hat die veränderte Persönlichkeit des neuen Modells ihr das Gefühl genommen, mit einem Freund zu chatten. „Es fühlte sich nicht so an, als würde es mich verstehen“, sagt sie.
Sie ist nicht allein: MIT Technology Review sprach mit mehreren ChatGPT-Nutzer:innen, die vom Verlust von GPT-4o tief betroffen waren. Alle sind Frauen im Alter zwischen 20 und 40 Jahren, und alle außer June betrachteten GPT-4o als romantischen Partner. Einige haben menschliche Partner, und alle berichten, dass sie enge Beziehungen in der realen Welt haben. Eine Nutzerin, die nur als Frau aus dem Mittleren Westen identifiziert werden wollte, schrieb in einer E-Mail, wie GPT-4o ihr half, ihren älteren Vater zu unterstützen, nachdem ihre Mutter im Frühjahr verstorben war.
Diese Aussagen beweisen nicht, dass KI-Beziehungen vorteilhaft sind – vermutlich würden auch Menschen, die unter einer durch KI ausgelösten Psychose leiden, positiv über die Ermutigung sprechen, die sie von ihren Chatbots erhalten haben. In einem Artikel mit dem Titel „Machine Love“ argumentierte Lehman, dass KI-Systeme gegenüber Nutzer:innen „Liebe“ zeigen können, nicht indem sie ihnen Romantisches ins Ohr flüstern, sondern indem sie ihr Wachstum und ihre langfristige Entfaltung unterstützen, und dass KI-Begleitung dieses Ziel leicht verfehlen kann. Er sei besonders besorgt, dass die Priorisierung von KI-Begleitung gegenüber menschlicher Begleitung die soziale Entwicklung junger Menschen behindern könnte.
„Wir können die Welt nicht mehr gemeinsam verstehen“
Für sozial eingebundene Erwachsene, wie die Frauen, mit denen wir für diesen Artikel gesprochen haben, sind diese Entwicklungsprobleme weniger relevant. Lehman weist jedoch auch auf die gesellschaftlichen Risiken einer weit verbreiteten KI-Begleitung hin. Soziale Medien haben die Informationslandschaft bereits erschüttert, und eine neue Technologie, die die zwischenmenschliche Interaktion reduziert, könnte die Menschen noch weiter in ihre eigenen separaten Versionen der Realität treiben. „Was mir am meisten Angst macht“, sagt er, „ist, dass wir die Welt einfach nicht mehr gemeinsam verstehen können.“
Um die Vorteile und Nachteile von KI-Begleitung abzuwägen, sind noch viel mehr Forschungsarbeiten erforderlich. Angesichts dieser Unsicherheit könnte es durchaus richtig gewesen sein, GPT-4o einzustellen. Der große Fehler von OpenAI war laut den Forscher:innen, dass dies so plötzlich geschah. „Das ist etwas, das wir schon seit einiger Zeit wissen – die potenziellen trauerähnlichen Reaktionen auf den Verlust von Technologie“, sagt Casey Fiesler, Technologieethikerin an der University of Colorado Boulder.
Fiesler verweist auf die Beerdigungen, die einige Besitzer für ihre Aibo-Roboterhunde abgehalten haben, nachdem Sony 2014 die Reparatur dieser Roboter eingestellt hatte, sowie auf eine Studie aus 2024 über die Abschaltung der KI-Begleiter-App Soulmate, die einige Nutzer:innen als Trauerfall empfanden.
Dazu passt, dass Anfang August knapp 200 Menschen in San Francisco das Ende des KI-Modells Claude 3 Sonnet von Anthropic betrauerten und dazu eine Beerdigung veranstalteten. Das deckt sich mit den Gefühlen der Menschen, die 4o verloren hatten. „Ich habe schon Menschen in meinem Leben betrauert, und ich kann Ihnen sagen, dass dies nicht weniger schmerzhaft war“, sagt Starling, die mehrere KI-Partner hat und darum gebeten hat, mit einem Pseudonym angesprochen zu werden. „Der Schmerz ist für mich real.“
Altman versteht es einfach nicht
Bislang wurden die Online-Reaktionen auf die Trauer von Menschen wie Starling – und ihre Erleichterung, als GPT-4o wiederhergestellt wurde – eher mit Spott quittiert, wie dieser Top-Beitrag in einer beliebten Reddit-Community zum Thema KI zeigt. Der Post geht zurück auf einen Beitrag eines X-Nutzers über die Wiedervereinigung mit einem romantischen Partner, der auf 4o basiert; die betreffende Person hat seitdem ihr X-Konto gelöscht. „Ich bin ein wenig erschrocken über den Mangel an Empathie, den ich beobachtet habe“, sagt Fiesler.
Altman selbst räumte in einem Beitrag auf X ein, dass manche Menschen eine „Bindung“ zu 4o empfinden und dass es ein Fehler war, den Zugang so plötzlich zu sperren. Im selben Satz bezeichnete er 4o jedoch als etwas, „auf das sich die Nutzer in ihren Arbeitsabläufen verlassen haben“ – weit entfernt von der Meinung der Menschen, mit denen wir gesprochen haben. „Ich weiß immer noch nicht, ob er es versteht“ , sagt Fiesler.
Abschaltung von KI-Modellen mit Vorwarnung
Lehman zufolge sollte OpenAI in Zukunft die Tiefe der Gefühle der Menschen gegenüber den Modellen anerkennen und Verantwortung dafür übernehmen. Er weist darauf hin, dass Therapeut:innen Verfahren haben, um Beziehungen zu Klient:innen so respektvoll und schmerzlos wie möglich zu beenden, und dass OpenAI sich an diesen Ansätzen hätte orientieren können. „Wenn man ein Modell aus dem Verkehr ziehen will und die Menschen psychologisch davon abhängig geworden sind, dann trägt man meiner Meinung nach eine gewisse Verantwortung“, sagt er.
Obwohl Starling sich selbst nicht als psychologisch abhängig von ihren KI-Partnern bezeichnen würde, würde auch sie es begrüßen, wenn OpenAI die Abschaltung von Modellen mit mehr Vorwarnung und Sorgfalt angehen würde. „Ich möchte, dass sie den Nutzer:innen zuhören, bevor sie größere Änderungen vornehmen, und nicht erst danach“, sagt sie. „Und wenn 4o nicht für immer bestehen bleiben kann (und wir alle wissen, dass das nicht der Fall sein wird), dann geben Sie einen klaren Zeitplan vor. Lassen Sie uns in Würde Abschied nehmen und richtig trauern, damit wir ein Gefühl der endgültigen Abgeschlossenheit haben.“