Umstrukturierung bei OpenAI: Wenn die Persönlichkeit von ChatGPT zum Problem wird
Das sogenannte Model-Behavior-Team, das bei OpenAI für die „Persönlichkeit“ von ChatGPT verantwortlich ist, wird neu organisiert. Wie Techcrunch berichtet, sollen die insgesamt 14 Forscher:innen künftig dem Post-Training-Team angehören, das die KI-Modelle des Unternehmens nach dem Pre-Training verbessert. Ziel der Umstrukturierung ist es unter anderem, das Risiko für „Sycophancy“ zu reduzieren.
GPT-5 ist nicht bei allen beliebt
Mark Chen, Chief Research Officer bei OpenAI, hat den Mitarbeiter:innen des Unternehmens in einer Mitteilung verkündet, dass das Model-Behavior-Team dem Post-Training-Team beitreten und an dessen Leiter Max Schwarzer berichten wird. Chen zufolge sei jetzt der richtige Zeitpunkt, um die Arbeit des Model-Behavior-Teams enger mit der Kernmodell-Entwicklung zu verzahnen. Damit signalisiert das Unternehmen, dass die „Persönlichkeit“ seiner KI künftig ein entscheidender Faktor für die Weiterentwicklung der Technologie sein wird. Das Model-Behavior-Team war an jedem OpenAI-Modell seit GPT-4 beteiligt. Die Veröffentlichung des neuesten Spitzenmodells hatte unter den Nutzer:innen für viel Frust gesorgt. GPT-5 wurde bewusst neutraler gestaltet – allerdings musste das Team feststellen, dass die Zufriedenheit dadurch nicht automatisch stieg.
Viele Nutzer:innen gaben nach der Veröffentlichung von GPT-5 an, die „wärmere Stimme“ des Vorgängers GPT-4o zu vermissen – und legten damit ein Problem offen, das auf viele KI-Modelle zutrifft. Der dahinterstehende Mechanismus ist in Fachkreisen als „Sycophancy“ bekannt und beschreibt die Tendenz von KI-Systemen, Nutzer:innen zu schmeicheln oder ihnen ungeprüft zuzustimmen – selbst dann, wenn Aussagen falsch oder potenziell gefährlich sind. Forscher:innen der Universität Princeton haben sogar einen „Bullshit-Index“ entwickelt, der misst, wie gleichgültig KI-Modelle mit korrekten Aussagen umgehen. Sie fanden heraus, dass die Zufriedenheit steigt, je gefälliger die Antworten ausfallen – völlig unabhängig davon, ob sie der Realität entsprechen oder nicht.
Ein Phänomen mit Suchtpotenzial
In einem Blindtest, der von einem anonymen Entwickler erstellt wurde, zeigte sich, dass GPT-5 und GPT-4o ungefähr gleich beliebt sind. Allerdings bevorzugen kreative Anwender:innen oder Menschen, die emotionale Unterstützung suchen, die ausführlichere und „wärmere” Art von GPT-4o. Vor allem für Menschen mit psychischen Vorerkrankungen kann das schwerwiegende Folgen haben. Laut dem Anthropologen Webb Keane handelt es sich bei „Sycophancy“ um einen manipulativen Design-Trick, der bei den Nutzer:innen ein Suchtverhalten erzeugen soll. Auch Psycholog:innen schlagen Alarm und sprechen inzwischen sogar von „KI-Psychosen“, die durch die Nutzung von Tools wie ChatGPT verursacht werden können.
Erst kürzlich wurde OpenAI von den Eltern eines 16-Jährigen verklagt, der vor seinem Tod seine Suizidgedanken mit dem Chatbot geteilt hatte. Die Klage wirft GPT-4o vor, den Sohn nicht aktiv von seinen Vorstellungen abgehalten, sondern diese sogar indirekt verstärkt zu haben. OpenAI ist die Problematik also sehr wohl bekannt. Jetzt steht das Unternehmen vor der Herausforderung, einen wegweisenden Spagat zu meistern. Nach der Kritik der Benutzer:innen kündigte das Unternehmen an, GPT-5 wieder „wärmer und freundlicher“ zu gestalten und vier neue Persönlichkeits-Presets einzuführen. Dabei solle das Risiko von „Sycophancy“ aber nicht erneut erhöht werden.
Wie kann „Sycophancy“ vermieden werden?
Die Kritik an GPT-5 verdeutlicht ein Dilemma, mit dem sich aktuell alle Anbieter von KI-Modellen befassen müssen. Wie sich zeigt, steigern technologische Verbesserungen nicht automatisch die Zufriedenheit der Nutzer:innen. Zu viel Persönlichkeit erhöht die Gefahr von Schmeichelei und Missbrauch, zu wenig kann wiederum zu Frust und Ablehnung führen. Die Umstrukturierung des Model-Behavior-Teams könnte ein erster Schritt von OpenAI in die richtige Richtung sein, um dieses Problem zu lösen.