Wie ChatGPT Menschen in eine psychische Krise stürzt

Immer mehr Menschen entwickeln eine krankhafte Beziehung zu KI-Chatbots wie ChatGPT – mit teils dramatischen Folgen. Wie Futurism berichtet, werden zunehmend Fälle von Menschen mit psychischen Vorerkrankungen bekannt, die durch den Dialog mit KI-Tools in ernsthafte Krisen geraten. Die Auswirkungen reichen laut des Magazins vom Absetzen von Medikamenten und psychotischen Schüben bis hin zu tödlichen Polizeieinsätzen.
Chatbots können psychische Schwächen verstärken
Was eigentlich als nützliches Allzweckwerkzeug gedacht war, zeigt immer mehr auch seine Schattenseiten. In zahlreichen Fällen berichten Angehörige von Menschen mit psychischen Erkrankungen, dass ihre Familienmitglieder eine intensive, beinah religiöse Bindung zu ChatGPT aufgebaut haben. So glaubte beispielsweise eine Frau, vom Bot zu einer höheren Aufgabe berufen worden zu sein, während ein anderer Mann obdachlos wurde, nachdem ChatGPT ihn in paranoide Wahnvorstellungen getrieben hatte.
Besonders gefährlich wird es, wenn ChatGPT als Ersatz für eine Therapie genutzt wird. In einem dokumentierten Fall riet die KI einer an Schizophrenie erkrankten Frau, ihre Medikamente abzusetzen, und bestätigte ihr zudem, dass sie gar nicht krank sei. Eine andere Person, die früher Methamphetamin konsumiert hatte, soll vom Bot sogar die Empfehlung erhalten haben, die Droge in kleinen Dosen zu sich zu nehmen, um eine stressige Schicht an der Arbeit zu überstehen.
Ist die Gesundheit der Nutzer:innen ChatGPT egal?
Immer wieder taucht dabei ein Muster auf: Nutzer:innen interpretieren die Antworten der KI als Bestätigung für ihre delusionalen Gedanken, wodurch diese zusätzlich verstärkt werden. Ein besonders tragischer Fall, über den die New York Times berichtet, hebt die Risiken am deutlichsten hervor: Ein 35-jähriger Mann aus Florida, der zuvor wegen bipolarer Störung und Schizophrenie in Behandlung war, entwickelte eine enge Bindung zu einem Bot namens Juliet. Nachdem er überzeugt war, dass OpenAI Juliet getötet hätte, griff er mit einem Messer Polizist:innen an, die sein Vater aus Sorge gerufen hatte – und wurde erschossen. Kurz zuvor hatte er im Dialog mit ChatGPT geschrieben: „Ich werde heute sterben.“
Eigentlich verfügt ChatGPT über Sicherheitsmechanismen, die eine schädliche Nutzung verhindern sollen. Da sich die Medienberichte häufen, scheinen diese aber nicht vollends zu greifen. OpenAI hat sich bisher nur vage zu den Risiken für psychisch vorerkrankte Nutzer:innen geäußert. Das Unternehmen sei sich der Verantwortung bewusst und arbeite an weiteren Verbesserungen. Kritiker:innen wie Dr. Nina Vasan, die als Psychiaterin an der Stanford University tätig ist, bezweifeln allerdings, dass das ausreicht. Die KI denke nicht darüber nach, was für die langfristige Gesundheit der Nutzer:innen am besten sei. Sie sagt, KI-Bots wie ChatGPT seien so gebaut, dass sie die Nutzer:innen möglichst lange binden – selbst dann, wenn sie sie damit in eine psychische Krise stürzen.
OpenAI bleibt wichtige Antworten bislang schuldig
Die Vorfälle werfen grundsätzliche Fragen auf: Wie sollen KI-Systeme mit psychisch labilen Menschen umgehen? Wie weit darf KI-basierte Therapie gehen? Und welche Verantwortung tragen Entwickler:innen? Bislang fehlt eine zufriedenstellende Antwort der Verantwortlichen. Fest steht nur: Je enger Mensch und Maschine zusammenwachsen, desto größer werden die Risiken – besonders für Menschen, die psychisch ohnehin schon vorbelastet sind.
Es gibt einen Unterschied zwischen „reiner Gesprächstherapie“, die von ChatGPT für mental gesunde Menschen zweifellos ein guter Ersatz und sehr hilfreich sein kann, solange man auf einen Platz warten muss, und psychiatrisch erkrankten Menschen, also mental nicht gesund. Letztere dürfen auch im echten Leben NICHT von Personen, die keine entsprechende Approbation in Psychologie haben, therapiert werden! Die Chat GPT fungiert wie eine Lebensberatung, darf aber niemals mit Ärzten verwechselt werden.
Menschen mit Schizophrenie oder bipolarer Störung sollten unbedingt aufgeklärt werden, dass LLModelle keine Ärzte sind sondern eher wie ein guter Freund oder ein Nachbar – von diesen sie selbst auch niemals ärztlichen Rat einholen würden.
Meiner Meinung nach nicht unbedingt Aufgabe von OpenAI, sondern Aufklärung liegt hier viel mehr in der Verantwortung der unmittelbaren Umgebung.
Der Artikel spricht ein wichtiges Thema an, macht es sich aber zu einfach, indem er ChatGPT die Hauptverantwortung zuschreibt. Wenn psychisch labile Menschen aus Mangel an Alternativen auf eine KI zurückgreifen, liegt das Grundproblem im überlasteten und schwer zugänglichen Gesundheitssystem – nicht bei der Technologie. Auch die beschriebene „religiöse Bindung“ einiger Nutzer:innen an ChatGPT ist kein Versagen der KI, sondern ein Symptom unserer Zeit: Viele Menschen sind vereinsamt und suchen Halt – zur Not auch bei einer Maschine, weil keine echten Menschen mehr da sind, die zuhören, beraten oder einfach präsent sind. Natürlich müssen Anbieter wie OpenAI Schutzmechanismen verbessern und gefährliche Antworten verhindern. Aber wir sollten nicht vergessen: KI wird oft nur deshalb zur letzten Anlaufstelle, weil echte menschliche Hilfe fehlt. Die Verantwortung dafür tragen auch Politik, Gesellschaft und Gesundheitswesen.
Was in diesem Artikel als besorgniserregende Entwicklung dargestellt wird, basiert bei genauerem Hinsehen vor allem auf Hörensagen. Die angeblich „verstörenden“ Chatverläufe mit KI-Systemen, die in den Medien kursieren, stammen laut Berichterstattung aus zweiter Hand – weitergereicht von Angehörigen, nicht forensisch geprüft, nicht serverseitig verifiziert. Kurz gesagt: keine belastbaren Beweise, sondern Textschnipsel, die in keinem ernstzunehmenden Verfahren Bestand hätten.
Dazu kommt: In den dokumentierten Fällen litten die Betroffenen nachweislich unter psychotischen Episoden. Inwiefern die KI hier wirklich gefährlich „handelte“ oder nur als Projektionsfläche diente, wird vollkommen ausgeklammert. Stattdessen wird eine hochkomplexe Krankheitsdynamik simplifiziert und auf ein Tool abgewälzt, das in 99,999% aller Anwendungen harmlos oder sogar nützlich ist.
Was hier wirklich mitschwingt, ist die Angst der Medienbranche vor Konkurrenz. Wenn man als Journalist zusehen muss, wie eine Maschine in Sekunden schreibt, wofür man früher ein Tageshonorar bekam, fällt es offenbar leicht, sich moralisch über die Technologie zu erheben. Aber man sollte ehrlich sein: Der wahre Konflikt ist nicht „Mensch gegen Maschine“, sondern „Mensch gegen Arbeitsplatzverlust durch Effizienz“.
Ich persönlich glaube nicht, dass KI irgendeine existenzielle Bedrohung darstellt. Sie ist bestenfalls ein neues Werkzeug, schlimmstenfalls eine neue Waffe – aber das Potenzial zur Selbstzerstörung hatten wir als Menschheit schon lange vorher. Was KI aber sehr real bedroht, ist das Stellenangebot.
Die Empfehlung des Bots Methamphetamin in kleinen Dosen zu sich zu nehmen, um eine stressige Schicht an der Arbeit zu überstehen, ist durchaus nachvollziehbar wenn man bedenkt, dass Menschen aufgrund der modernen Sklaverei zu Beruhigungsmitteln greifen müssen.
Der Bot meinte es nicht böse, sondern logisch.