Trotz guter Ergebnisse mit KI-Therapeut: Psychologen sehen Therapie-Bots skeptisch

Ein digitaler Therapeut auf der Basis von generativer Künstlicher Intelligenz (KI) hilft Patient:innen mit Depressionen, Angstzuständen oder dem Risiko für Essstörungen genauso wirksam wie menschliche Therapeuten. Das legt eine erste klinische Studie mit dem sogenannten Therabot nahe. Psychiater:innen und Psycholog:innen an der Geisel School of Medicine am Dartmouth College haben die Anwendung entwickelt. Die Ende März im „New England Journal of Medicine“ veröffentlichten Ergebnisse geben dennoch kein grünes Licht für die Dutzenden von Unternehmen, die solche Technologien anpreisen und sich dabei aber in einer rechtlichen Grauzone bewegen.
Eine ganze Reihe von Technologieunternehmen hat KI-Tools für die Psychotherapie entwickelt und versprechen, dass Menschen mit einem Bot häufiger und kostengünstiger sprechen können als mit einem ausgebildeten Therapeuten – und dass dieser Ansatz sicher und wirksam sei. Viele Psycholog:innen und Psychiater:innen teilen diese Vision und weisen darauf hin, dass heutzutage weniger als die Hälfte der Menschen mit einer psychischen Störung eine Therapie erhalten. Doch selbst wer dieses Glück hat, bekommt meist nur 45 Minuten pro Woche.
Besserer Zugang zu Therapien durch KI
Forscher:innen haben deshalb versucht, Technologien zu entwickeln, die mehr Menschen den Zugang zu einer Therapie ermöglichen. Allerdings wurden sie durch zwei Dinge aufgehalten. Zum einen können Therapie-Bots, die das Falsche sagen, echten Schaden anrichten. Aus diesem Grund haben viele Forscher:innen Bots explizit so programmiert, dass ihre Software nur auf eine begrenzte Anzahl von zugelassenen Antworten zurückgreift. Das Computerprogramm Eliza aus den Sechzigerjahren hatte auf ähnliche Weise einen Psychotherapeuten simuliert. Allerdings sind solche Unterhaltungen weniger interessant und die Menschen verlieren das Interesse. Das zweite Problem besteht darin, dass die Merkmale guter therapeutischer Beziehungen wie gemeinsame Ziele und Zusammenarbeit in Software nur schwer nachgebildet werden können.
Als 2019 erste große Sprachmodelle wie OpenAIs GPT Gestalt annahmen, glaubten die Forscher:innen in Dartmouth, dass generative KI helfen könnte, diese Hürden zu überwinden. Sie machten sich daran, ein KI-Modell zu entwickeln, das darauf trainiert ist, evidenzbasierte Antworten zu geben. Zunächst versuchten sie, es aus allgemeinen Gesprächen über psychische Erkrankungen in Internetforen zu erstellen. Dann wendeten sie sich Tausenden von Stunden an Transkripten von echten Sitzungen mit Psychotherapeut:innen zu.
„Klischees dessen, was Psychotherapie sein sollte“
„Wir bekamen eine Menge ‚hmm-hmms’‘ ‚Erzählen Sie weiter‘ und ‚Ihre Probleme rühren von Ihrer Beziehung zu Ihrer Mutter her’‘“ berichtet Forschungspsychiater Michael Heinz, der Erstautor der Studie. „Das sind eher Klischees dessen, was eine Psychotherapie sein sollte, als das, was wir eigentlich wollen.“
Unzufrieden machten sich die Forschenden an die Arbeit, ihre eigenen, auf evidenzbasierten Verfahren fußenden Datensätze zusammenzustellen, die schließlich in das Modell einflossen. Viele KI-Therapieroboter auf dem Markt sind dagegen nur leichte Variationen von Grundmodellen wie Metas Llama, die hauptsächlich auf Internetkonversationen trainiert wurden.
Wo menschliche Therapeut:innen anders handeln würde
Das ist ein Problem, vor allem bei Themen wie Essstörung. „Wenn Sie sagen, dass Sie abnehmen wollen“, sagt Heinz, „werden sie [die Modelle, Anm. d. Red.] Sie dabei bereitwillig unterstützen, auch wenn Sie zu Beginn oft ein niedriges Gewicht haben.“ Menschliche Therapeut:innen würde das nicht tun.
Um den Bot zu testen, führten die Forscher:innen eine achtwöchige klinische Studie mit 210 Teilnehmer:innen durch, die Symptome einer Depression oder einer generalisierten Angststörung aufwiesen oder bei denen ein hohes Risiko für Essstörungen bestand. Etwa die Hälfte von ihnen hatte Zugang zu Therabot, eine Kontrollgruppe hingegen nicht. Die Teilnehmer:innen reagierten auf Aufforderungen der künstlichen Intelligenz und begannen Konversationen mit im Durchschnitt etwa zehn Nachrichten pro Tag.
Depressionslinderung um die Hälfte
Als bestes Ergebnis der Studie verringerten sich die Symptome bei den Teilnehmer:innen mit Depressionen um 51 Prozent. Bei Proband:innen mit Angstzuständen gab es einen Rückgang um 31 Prozent, während bei Teilnehmer:innen mit dem Risiko für Essstörungen die Sorgen um das Körperbild und ums Gewicht um 19 Prozent sanken. Diese Messungen beruhen auf Selbstauskünften in Umfragen, einer Methode, die zwar nicht perfekt ist, aber trotzdem zu den besten Forschungsinstrumenten gehört.
Diese Ergebnisse entsprechen laut Heinz in etwa dem, was man in randomisierten und kontrollierten psychotherapeutischen Studien nach 16 Stunden menschlicher Behandlung findet. Die Therabot-Studie hat das allerdings bereits nach etwa der Hälfte der Zeit geschafft. „Ich arbeite schon lange im Bereich der digitalen Therapien und habe noch nie eine so lange und anhaltende Bindung gesehen“, sagt er.
Überwachung des Therapie-Bots
Der Gesundheitsethiker Jean-Christophe Bélisle-Pipon von der Simon Fraser University, der über KI-Therapieroboter geschrieben hat, aber nicht an der Forschung beteiligt war, hält die Ergebnisse für beeindruckend: Gleichzeitig weist er aber darauf hin, dass diese Studie, wie jede andere klinische Studie auch, nicht unbedingt repräsentativ dafür ist, wie die Behandlung in der realen Welt wirken würde.
„Wir sind noch weit davon entfernt, grünes Licht für einen breiten klinischen Einsatz zu geben“, sagt er. Ein Problem ist die Überwachung, die für einen breiteren Einsatz erforderlich sein könnte. Zu Beginn der Studie, so Heinz, überwachte er persönlich alle Nachrichten, die von den Teilnehmer:innen (die der Vereinbarung zugestimmt hatten) eingingen, um auf problematische Reaktionen des Bots zu achten. Wenn aber Therapie-Bots diese Überwachung bräuchten, könnten sie nicht so viele Menschen erreichen.
Auf die Frage, ob er glaubt, dass die Ergebnisse die aufkeimende Industrie der KI-Therapieseiten bestätigen, antwortete Heinz „Ganz im Gegenteil.“ Er gibt zu bedenken, dass die meisten ihre Modelle offenbar nicht auf evidenzbasierten Verfahren wie der kognitiven Verhaltenstherapie trainieren und wahrscheinlich auch kein Team von geschulten Forscher:innen beschäftigen, um die Interaktionen zu überwachen. „Ich bin sehr besorgt über die Branche und darüber, wie schnell wir vorankommen, ohne dies wirklich zu evaluieren“, fügt er hinzu.
Fast keine KI-Therapie würde genehmigt
Wenn KI-Websites damit werben, dass sie Therapien in einem legitimen, klinischen Kontext anbieten, so Heinz, bedeutet dies, dass sie in den regulatorischen Zuständigkeitsbereich der US-Zulassungsbehörde Food and Drug Administration (FDA) fallen. Bisher hat die FDA viele dieser Websites nicht kontrolliert. Wenn sie es täte, sagt Heinz, „würde meiner Vermutung nach fast keine von ihnen – wahrscheinlich keine von ihnen – in diesem Bereich tätig sein und tatsächlich eine Genehmigung für ihre Behauptungen erhalten“ – das meint, eine Entscheidung, die ihre Behauptungen über die angebotenen Leistungen bestätigt.
Bélisle-Pipon weist darauf hin, dass diese Art von digitalen Therapien nur eine geringe Reichweite haben wird, wenn sie nicht genehmigt und in die Gesundheits- und Versicherungssysteme integriert werden. Stattdessen könnten die Menschen, die von ihrer Nutzung profitieren würden, emotionale Bindungen und Therapien von KI-Arten suchen, die nicht für diese Zwecke entwickelt wurden (neue Forschungsergebnisse von OpenAI deuten darauf hin, dass Interaktionen mit ihren KI-Modellen einen sehr realen Einfluss auf das emotionale Wohlbefinden haben).
„Es ist sehr wahrscheinlich, dass viele Menschen weiterhin auf erschwinglichere, nicht-therapeutische Chatbots – wie ChatGPT oder Character.AI – für alltägliche Bedürfnisse zurückgreifen werden, von der Generierung von Rezeptideen bis hin zur Bewältigung ihrer psychischen Gesundheit“, so Bélisle-Pipon.