Anzeige
Anzeige
Interview
Artikel merken

Psychotherapie und KI: „Empathie kann man simulieren“

Künstliche Intelligenzen sind immer leistungsfähiger, aber können sie auch schon in so wichtigen Bereichen wie Medizin und Psychotherapie unterstützen? Im Interview erklärt Marisa Tschopp, wie es um das Verhältnis von Mensch und KI steht.

4 Min. Lesezeit
Anzeige
Anzeige
Psychotherapie vor dem Laptop ist nichts Seltenes mehr.(Abbildung: Shutterstock / voronaman)

Welche KI-Anwendungen gibt es bereits in der Psychologie? Kann KI überhaupt ausreichend auf Menschen eingehen und welche negativen Aspekte gibt es im Bezug auf therapeutische KIs? Diese und andere Fragen haben wir Marisa Tschopp gestellt. Sie ist als Doktorandin am Leibniz Institut für ­Wissensmedien aktiv in der Forschung zu künstlicher ­Intelligenz aus ­Humanperspektive und weiß, wo KI bereits heute in der Psycho­logie hilfreich ist – und wo die Gefahren liegen könnten.

Anzeige
Anzeige

t3n: Damit KI in der Psychologie eingesetzt werden kann, muss Vertrauen da sein. Wie steht es um das Verhältnis von Mensch und künstlicher Intelligenz?

Als ich als Psychologin angefangen habe, wollte ich auch wissen, wieso die Menschen eigentlich Angst haben vor KI. Ich bin aber inzwischen an einem Punkt, an dem ich Zweifel habe, ob die Angst vor KI wirklich noch da ist. Oder ob das eher die Wahrnehmung ist, die auch durch die Medien verbreitet wird. Gerade beim Thema Vertrauen merken Kolleg:innen und ich immer öfter, dass etwa Studienteilnehmer:innen nicht wirklich Probleme haben, einer KI zu vertrauen. Das sind meine persönlichen Beobachtungen – da entwickelt sich was. Dennoch existieren immer noch diese Bilder von Killerrobotern. Oder von KI, die als Androide dargestellt wird. Das habe ich auch schon gemacht, um Aufmerksamkeit zu bekommen – es ist ja nur menschlich.

Anzeige
Anzeige

t3n: Welche Anwendungen von KI in der Psychologie und Psycho­­therapie kennen Sie?

In welchem Ausmaß da KI angewendet wird, kann man selten sagen – es gibt kaum Möglichkeiten, hinter die Programme zu schauen. Aber es gibt etwa den Woebot, mit dem man schriftlich Nachrichten austauschen kann. Er funktioniert wie ein Coach, der auf die Probleme der Nutzer reagiert und verhaltenstherapeutische Tipps gibt. Von solchen Bots, mit und ohne KI, gibt es viele, der Woebot ist der am weitesten verbreitete. Weiterhin gibt es Game-basierte Verhaltenstherapien, Betwixt ist ein Beispiel dafür. Das führt den Menschen in eine Welt, in der er zur Selbstreflexion animiert wird, dafür werden Tools des interaktiven Storytellings genutzt. Zuletzt kann ich noch die Replika AI nennen. Die ist im asiatischen Raum sehr verbreitet. Da inter­agiert man mit einer als Mensch dargestellten KI, kann sich mit ihr anfreunden. Mit ihr kann man auch über Glück, Karriere oder Partnerschaften reden.

Anzeige
Anzeige

(Foto: Marisa Tschopp)

t3n: Kann eine KI denn wirklich auf Menschen eingehen – kann sie einfühlsam sein?

Allgemein gesprochen reden wir bei KI immer von Simulationen. Empathie kann man entsprechend auch simulieren. Die Frage ist, ob das gut oder schlecht gemacht wird. Ein Avatar, der etwa das Gesicht empathisch verzieht, wenn man ihm erzählt, dass es ­einem heute nicht so gut geht, kann schon effektiv sein. Das ist die wichtige Frage, die man sich bei KI und Empathie stellen muss: Hat es einen Effekt oder hat es keinen Effekt beim Menschen? Und wenn es einen hat – welchen? Es ist wichtig, zu beobachten, ob die gespielte Empathie dem Gegenüber auch wirklich guttut. Denn die Simulation kann auch das Gegenteil bewirken. Wenn jemand sieht, dass ein Avatar ihn bemitleidet, kann es sich auch anfühlen wie ein Schlag in die Magengrube.

Anzeige
Anzeige

t3n: Vieles was Menschen tun, ist irrational – besonders, wenn es um Emotionen geht. Kann eine KI da überhaupt mit­halten?

Es ist ein Trugschluss, dass KI immer rational agiert. Sie ist immer ein Abbild unserer Irrationalität. Darum diskriminiert sie ja zum Beispiel so oft – weil sie das von uns gelernt hat. Wir füttern KI mit Daten und daraus lernt die KI. Aber dabei entstehen eben auch Fehler. Schon in der Bilderkennung kann das ja passieren: Wir füttern beispielsweise mehrere Bilder mit traurigen Gesichtern darauf, und die KI verknüpft plötzlich Traurigkeit mit einer bestimmten Haarfarbe oder dem Hintergrund, vor dem die Personen sitzen.

t3n: Sehen Sie denn auch negative Aspekte in Bezug auf therapeutische KI?

Anzeige
Anzeige

Immer mehr Studien deuten darauf hin, dass eine Abhängigkeit entstehen kann. Wenn Menschen beispielsweise einmal angefangen haben, mit einem Chatbot zu kommunizieren, dann kann ein Suchtverhalten entstehen, wie es etwa auch mit Facebook oder Instagram passieren kann. Die Menschen werden traurig, wenn sie die KI-Behandlung abbrechen müssen. Sie fühlen sich ohne den Bot einsam. Das geht nur wenigen so – aber in der Masse darf man das trotzdem nicht ignorieren. Die KI kann zu jedem Zeitpunkt für einen Menschen da sein, es gibt keine Grenzen und sozialen Regeln wie bei einem Menschen. Genau diese ständige Verfügbarkeit, die die Stärke der KI ist, kann bei einigen Menschen auch zur Gefahr werden. Ich weiß noch nicht, wie man da die Balance hinbekommt.

t3n: Wird KI irgendwann Psychotherapeut:innen ersetzen – und wäre das etwas Gutes?

Vor drei Jahren habe ich da noch anders gedacht. Da war meine Meinung, dass KI niemals einen Therapeuten oder eine Therapeutin ersetzen darf. Mittlerweile sehe ich das differenzierter. Wenn du eine massive Störung hast, wird eine menschliche ­Therapie niemals zu ersetzen sein. Das wäre, als würde man Krebs mit Globuli heilen wollen. Aber es leben so viele Menschen auf diesem Planeten, wir haben nicht mal im Ansatz genügend Therapie­plätze. Darum wäre es mir grundsätzlich lieber, dass jemand zum Beispiel einen KI-Bot nutzt, als gar kein psychotherapeutisches Angebot wahrzunehmen. In einer idealen Welt haben alle Zugang zu Therapie bei einem Menschen – und gleichzeitig als unterstützende Maßnahme noch die KI. Aber nur dann, wenn sie merken, dass ihnen das guttut.

Mehr zu diesem Thema
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Ein Kommentar
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Martin
Martin

Spannendes Thema. Ich denke, eine Software, die ein gutes Selbsthilfebuch ersetzt, könnte „therapiebegleitend“ interessant sein für Menschen die Büchern nichts abgewinnen können.

Im Coaching spiele ich persönlich den „Bot“, der individuell zugeschnittene SMS und Mails verfasst und zwischen den Sitzungen an meine Klienten sendet. Einige wiederkehrende Elemente lassen sich per Textbaustein o.ä. sicherlich vereinfachen.

Ich habe aber meine Zweifel daran, dass eine KI die intuitive Wahrnehmung eines erfahrenen Coachs oder Therapeuten ersetzen kann, dass sie erkennt, was „zwischen den Zeilen gesprochen wird“.

Bei einer Konversation mit einem Roboterwesen (am Bildschirm) gibt es immer die Möglichkeit, es aus verschiedenen Perspektiven zu betrachten, wie etwa auch im Kino oder beim Videospiel – aber auch in Therapiesitzungen von Angesicht zu Angesicht:

Einerseits kann ich mich mit den Akteuren identifizieren, so tun als ob ich selbst mitspiele und werde dadurch alle möglichen Emotionen durchleben – Spannung, Horror, Trauer uvm. – je nach Film und Intention des Regisseurs. Andererseits kann ich auch aus einer Metaposition heraus beobachten, wie das Spiel oder der Film gemacht sind, wie die visuellen Effekte umgesetzt sind, die schauspielerischen Leistungen beurteilen oder beobachten wie die Grafik umgesetzt ist, hinterfragen nach welchen Algorithmen das System funktioniert, etc. Hierbei werden garantiert wieder komplett andere emotionale Zustände aktiviert. Wie kann nun die KI interpretieren, welche innere Haltung und Perspektive die Klientin einnimmt, welchen Stellenwert die anhand verschiedener Merkmale (Gestik, Mimik, Atmung, Körperhaltung, Stimme, etc.) identifizierte Emotion in Bezug auf das Anliegen der Klientin hat? In der Beratung mit einem lebendigen Berater spielen nach wie vor auch die inneren Vorgänge des Beraters in Bezug auf das Verhalten des Klienten während des Gesprächs eine wichtige Rolle.

Ich denke bei Standardaufgaben hat die Technologie definitiv einen gewissen Stellenwert. Sie könnte Therapeuten in vielen Bereichen entlasten, sie aber niemals komplett ersetzen – so wie selbst ekzellente Selbsthilfeangebote sie auch nie komplett überflüssig machen werden.

Antworten

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige