Anzeige
Anzeige
MIT Technology Review News
Verpasse keine News mehr!

Trotz guter Ergebnisse mit KI-Therapeut: Psychologen sehen Therapie-Bots skeptisch

Die erste klinische Studie mit der Therabot genannten Anwendung hat gute Ergebnisse bei Patient:innen mit Depression, Angst- und Essstörungen erzielt. Doch ein breites Angebot, besonders von Tech-Unternehmen, birgt Risiken.

Von MIT Technology Review Online
5 Min.
Artikel merken
Anzeige
Anzeige
Psychotherapie vor dem Laptop ist nichts Seltenes mehr.(Abbildung: Shutterstock / voronaman)

Ein digitaler Therapeut auf der Basis von generativer Künstlicher Intelligenz (KI) hilft Patient:innen mit Depressionen, Angstzuständen oder dem Risiko für Essstörungen genauso wirksam wie menschliche Therapeuten. Das legt eine erste klinische Studie mit dem sogenannten Therabot nahe. Psychiater:innen und Psycholog:innen an der Geisel School of Medicine am Dartmouth College haben die Anwendung entwickelt. Die Ende März im „New England Journal of Medicine“ veröffentlichten Ergebnisse geben dennoch kein grünes Licht für die Dutzenden von Unternehmen, die solche Technologien anpreisen und sich dabei aber in einer rechtlichen Grauzone bewegen.

Anzeige
Anzeige

Eine ganze Reihe von Technologieunternehmen hat KI-Tools für die Psychotherapie entwickelt und versprechen, dass Menschen mit einem Bot häufiger und kostengünstiger sprechen können als mit einem ausgebildeten Therapeuten – und dass dieser Ansatz sicher und wirksam sei. Viele Psycholog:innen und Psychiater:innen teilen diese Vision und weisen darauf hin, dass heutzutage weniger als die Hälfte der Menschen mit einer psychischen Störung eine Therapie erhalten. Doch selbst wer dieses Glück hat, bekommt meist nur 45 Minuten pro Woche.

Besserer Zugang zu Therapien durch KI

Forscher:innen haben deshalb versucht, Technologien zu entwickeln, die mehr Menschen den Zugang zu einer Therapie ermöglichen. Allerdings wurden sie durch zwei Dinge aufgehalten. Zum einen können Therapie-Bots, die das Falsche sagen, echten Schaden anrichten. Aus diesem Grund haben viele Forscher:innen Bots explizit so programmiert, dass ihre Software nur auf eine begrenzte Anzahl von zugelassenen Antworten zurückgreift. Das Computerprogramm Eliza aus den Sechzigerjahren hatte auf ähnliche Weise einen Psychotherapeuten simuliert. Allerdings sind solche Unterhaltungen weniger interessant und die Menschen verlieren das Interesse. Das zweite Problem besteht darin, dass die Merkmale guter therapeutischer Beziehungen wie gemeinsame Ziele und Zusammenarbeit in Software nur schwer nachgebildet werden können.

Anzeige
Anzeige

Als 2019 erste große Sprachmodelle wie OpenAIs GPT Gestalt annahmen, glaubten die Forscher:innen in Dartmouth, dass generative KI helfen könnte, diese Hürden zu überwinden. Sie machten sich daran, ein KI-Modell zu entwickeln, das darauf trainiert ist, evidenzbasierte Antworten zu geben. Zunächst versuchten sie, es aus allgemeinen Gesprächen über psychische Erkrankungen in Internetforen zu erstellen. Dann wendeten sie sich Tausenden von Stunden an Transkripten von echten Sitzungen mit Psychotherapeut:innen zu.

„Klischees dessen, was Psychotherapie sein sollte“

„Wir bekamen eine Menge ‚hmm-hmms’‘ ‚Erzählen Sie weiter‘ und ‚Ihre Probleme rühren von Ihrer Beziehung zu Ihrer Mutter her’‘“ berichtet Forschungspsychiater Michael Heinz, der Erstautor der Studie. „Das sind eher Klischees dessen, was eine Psychotherapie sein sollte, als das, was wir eigentlich wollen.“

Anzeige
Anzeige

Unzufrieden machten sich die Forschenden an die Arbeit, ihre eigenen, auf evidenzbasierten Verfahren fußenden Datensätze zusammenzustellen, die schließlich in das Modell einflossen. Viele KI-Therapieroboter auf dem Markt sind dagegen nur leichte Variationen von Grundmodellen wie Metas Llama, die hauptsächlich auf Internetkonversationen trainiert wurden.

Wo menschliche Therapeut:innen anders handeln würde

Das ist ein Problem, vor allem bei Themen wie Essstörung. „Wenn Sie sagen, dass Sie abnehmen wollen“, sagt Heinz, „werden sie [die Modelle, Anm. d. Red.] Sie dabei bereitwillig unterstützen, auch wenn Sie zu Beginn oft ein niedriges Gewicht haben.“ Menschliche Therapeut:innen würde das nicht tun.

Anzeige
Anzeige

Um den Bot zu testen, führten die Forscher:innen eine achtwöchige klinische Studie mit 210 Teilnehmer:innen durch, die Symptome einer Depression oder einer generalisierten Angststörung aufwiesen oder bei denen ein hohes Risiko für Essstörungen bestand. Etwa die Hälfte von ihnen hatte Zugang zu Therabot, eine Kontrollgruppe hingegen nicht. Die Teilnehmer:innen reagierten auf Aufforderungen der künstlichen Intelligenz und begannen Konversationen mit im Durchschnitt etwa zehn Nachrichten pro Tag.

Depressionslinderung um die Hälfte

Als bestes Ergebnis der Studie verringerten sich die Symptome bei den Teilnehmer:innen mit Depressionen um 51 Prozent. Bei Proband:innen mit Angstzuständen gab es einen Rückgang um 31 Prozent, während bei Teilnehmer:innen mit dem Risiko für Essstörungen die Sorgen um das Körperbild und ums Gewicht um 19 Prozent sanken. Diese Messungen beruhen auf Selbstauskünften in Umfragen, einer Methode, die zwar nicht perfekt ist, aber trotzdem zu den besten Forschungsinstrumenten gehört.

Diese Ergebnisse entsprechen laut Heinz in etwa dem, was man in randomisierten und kontrollierten psychotherapeutischen Studien nach 16 Stunden menschlicher Behandlung findet. Die Therabot-Studie hat das allerdings bereits nach etwa der Hälfte der Zeit geschafft. „Ich arbeite schon lange im Bereich der digitalen Therapien und habe noch nie eine so lange und anhaltende Bindung gesehen“, sagt er.

Anzeige
Anzeige

Überwachung des Therapie-Bots

Der Gesundheitsethiker Jean-Christophe Bélisle-Pipon von der Simon Fraser University, der über KI-Therapieroboter geschrieben hat, aber nicht an der Forschung beteiligt war, hält die Ergebnisse für beeindruckend: Gleichzeitig weist er aber darauf hin, dass diese Studie, wie jede andere klinische Studie auch, nicht unbedingt repräsentativ dafür ist, wie die Behandlung in der realen Welt wirken würde.

„Wir sind noch weit davon entfernt, grünes Licht für einen breiten klinischen Einsatz zu geben“, sagt er. Ein Problem ist die Überwachung, die für einen breiteren Einsatz erforderlich sein könnte. Zu Beginn der Studie, so Heinz, überwachte er persönlich alle Nachrichten, die von den Teilnehmer:innen (die der Vereinbarung zugestimmt hatten) eingingen, um auf problematische Reaktionen des Bots zu achten. Wenn aber Therapie-Bots diese Überwachung bräuchten, könnten sie nicht so viele Menschen erreichen.

Auf die Frage, ob er glaubt, dass die Ergebnisse die aufkeimende Industrie der KI-Therapieseiten bestätigen, antwortete Heinz „Ganz im Gegenteil.“ Er gibt zu bedenken, dass die meisten ihre Modelle offenbar nicht auf evidenzbasierten Verfahren wie der kognitiven Verhaltenstherapie trainieren und wahrscheinlich auch kein Team von geschulten Forscher:innen beschäftigen, um die Interaktionen zu überwachen. „Ich bin sehr besorgt über die Branche und darüber, wie schnell wir vorankommen, ohne dies wirklich zu evaluieren“, fügt er hinzu.

Anzeige
Anzeige

Fast keine KI-Therapie würde genehmigt

Wenn KI-Websites damit werben, dass sie Therapien in einem legitimen, klinischen Kontext anbieten, so Heinz, bedeutet dies, dass sie in den regulatorischen Zuständigkeitsbereich der US-Zulassungsbehörde Food and Drug Administration (FDA) fallen. Bisher hat die FDA viele dieser Websites nicht kontrolliert. Wenn sie es täte, sagt Heinz, „würde meiner Vermutung nach fast keine von ihnen – wahrscheinlich keine von ihnen – in diesem Bereich tätig sein und tatsächlich eine Genehmigung für ihre Behauptungen erhalten“ – das meint, eine Entscheidung, die ihre Behauptungen über die angebotenen Leistungen bestätigt.

Bélisle-Pipon weist darauf hin, dass diese Art von digitalen Therapien nur eine geringe Reichweite haben wird, wenn sie nicht genehmigt und in die Gesundheits- und Versicherungssysteme integriert werden. Stattdessen könnten die Menschen, die von ihrer Nutzung profitieren würden, emotionale Bindungen und Therapien von KI-Arten suchen, die nicht für diese Zwecke entwickelt wurden (neue Forschungsergebnisse von OpenAI deuten darauf hin, dass Interaktionen mit ihren KI-Modellen einen sehr realen Einfluss auf das emotionale Wohlbefinden haben).

„Es ist sehr wahrscheinlich, dass viele Menschen weiterhin auf erschwinglichere, nicht-therapeutische Chatbots – wie ChatGPT oder Character.AI – für alltägliche Bedürfnisse zurückgreifen werden, von der Generierung von Rezeptideen bis hin zur Bewältigung ihrer psychischen Gesundheit“, so Bélisle-Pipon.

Anzeige
Anzeige

 

Der Artikel stammt von James O’Donnell. Er ist Redakteur bei der US-amerikanischen Ausgabe von MIT Technology Review. O’Donnell schreibt regelmäßig über Hardware-, aber auch KI-Themen.
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige