Anzeige
Anzeige
News

Psychologie: Warum es uns helfen kann, eine KI anzuschreien

Eine Psychologiedoktorandin hat herausgefunden, dass der Austausch mit KI-Chatbots bei schwierigen Gefühlslagen durchaus hilfreich sein kann. Das gilt indes nicht für alle Arten von Gefühlen.

2 Min.
Artikel merken
Anzeige
Anzeige

 

 

 

 

Die Psychologieforscherin Meilan Hu von der renommierten Singapore Management University (SMU) wollte wissen, ob die immer menschenähnlicher werdenden Antworten moderner KI-Chatbots Menschen in emotionalen Krisen unterstützen könnten. Die Antwort, die sie fand, lautet ja, aber.

Anzeige
Anzeige

Interessante Hypothese: Könnten KI-Chatbots helfen, Emotionen zu verarbeiten?

Hus Idee klingt plausibel. „KI-Chatbots sind so weit fortgeschritten, dass sie menschenähnliche Antworten geben können“, sagte Hu in einem Interview mit dem Psychologiemagazin Psypost. Das habe sie dazu gebracht, sich zu fragen, „ob sie als alternative Option für Einzelpersonen dienen könnten, um ihre Emotionen zu verarbeiten.“

Dabei ging es Hu nicht um einen therapeutischen Ansatz, sondern eher um die Verwendung von KI-Chatbots als eine Art Ventil, mit dessen Hilfe Menschen ihren Frustrationen und Ängsten Luft machen können. Die Ergebnisse ihrer Arbeit hat Hu in der Zeitschrift Applied Psychology: Health and Well-Being veröffentlicht.

Anzeige
Anzeige

„Ich habe immer festgestellt, dass es sehr tröstlich ist, mit jemandem über seine Frustrationen zu sprechen, der zuhört und die Gefühle bestätigt“, erklärt sie die Arbeitshypothese, die sie zu ihren Untersuchungen geführt hat und ergänzt: „Angesichts der zunehmenden Verbreitung von Einsamkeit in allen Altersgruppen haben viele Menschen jedoch möglicherweise keinen Zugang zu einer vertrauenswürdigen, nicht wertenden Person, mit der sie sprechen können.“

Um ihre Hypothese zu überprüfen, rekrutierten Hu und ihre Kollegen 150 Student:innen und teilten sie nach dem Zufallsprinzip in zwei Gruppen ein. Die eine Gruppe erhielt Zugang zu einem „emphatischen“ KI-Chatbot. Die andere Gruppe sollte ihre Probleme in ein Tagebuch schreiben.

Anzeige
Anzeige

KI-Chatbots als Ventil für Angst und Wut geeignet

Nach einer einwöchigen Ruhephase wurden die Rollen der Student:innen vertauscht, sodass die Chatbot-Gruppe in der zweiten Phase Tagebuch führte und umgekehrt. Nach jeder Sitzung wurden die Teilnehmer:innen gebeten, einige Fragen zu ihren Gefühlen zu beantworten. Insbesondere sollten sie dabei Gefühle der Einsamkeit, des Stresses und der subjektiv wahrgenommenen sozialen Unterstützung bewerten.

Wie Hu vermutet hatte, berichteten die Student:innen nach KI-Chatbot-Sitzungen im Vergleich zum Tagebuch über weniger negative Emotionen mittlerer und hoher Erregung – wie Angst und Wut. Das führt Hu auf die personalisierten Echtzeit-Antworten des Chatbots zurück. Hier scheint der Ventilcharakter gut funktioniert zu haben.

Anzeige
Anzeige

Chatbots wenig hilfreich bei Traurigkeit oder Einsamkeit

Andererseits stellte Hus Team kaum Unterschiede zwischen dem Austausch mit Chatbots und dem Tagebuchschreiben fest, wenn es um negative Emotionen mit einem geringeren Erregungsgrad wie Traurigkeit ging. Wenig hilfreich waren die Chatbots auch, wenn es darum ging, sich weniger einsam zu fühlen oder mehr soziale Unterstützung zu erhalten.

„Auch wenn sie nicht in der Lage sind, die Tiefe der Verbindung zu ersetzen, die man durch menschliche Interaktionen erhält, zeigen unsere Ergebnisse dennoch, dass das Auslassen von Gefühlen wie Wut oder Angst an KI-Chatbots effektiv sein kann“, resümiert Hu. „Das macht KI-Chatbots zu einem wertvollen Hilfsmittel, um vorübergehend emotionale Erleichterung zu verschaffen, insbesondere in Momenten, in denen man einfach jemanden (oder etwas) zum Reden braucht.“

Es sei jedoch noch einmal deutlich darauf hingewiesen, dass es bei der Studie nicht um therapeutische Ansätze ging. Weder wurde es untersucht, noch gab es Anzeichen dafür, dass mit Empathie trainierte Chatbots negative Emotionen etwa „heilen“ könnten.

Anzeige
Anzeige

 

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige