Anzeige
Anzeige
News

KI-Chatbot unter Stress: Wie Forscher ChatGPT mit Achtsamkeitsübungen „therapieren“ wollen

Wenn Menschen Angst oder andere negative Emotionen empfinden, ändert das ihr Verhalten. Vor allem kognitive und soziale Vorurteile verstärken sich. Das ist offenbar beim KI-Bot ChatGPT nicht anders.

2 Min.
Artikel merken
Anzeige
Anzeige
Immer menschenähnlicher? Forschende haben eine Therapie für KI-Bots entwickelt. (Bild: Dall-E / t3n)

In Kooperation mit Forscher:innen aus Israel, den USA und Deutschland haben Wissenschaftler:innen der Universität Zürich (UZH) und des Universitätsklinikums für Psychiatrie Zürich (PUK) erstmals systematisch untersucht, wie ChatGPT basierend auf dem KI-Modell GPT-4 auf emotional belastende Erzählungen reagiert. Im Rahmen ihrer Studie setzten sie den Chatbot negativen Inhalten wie Erzählungen von Autounfällen, Naturkatastrophen, zwischenmenschlicher Gewalt, militärischen Erfahrungen und Kampfsituationen aus.

Anzeige
Anzeige

ChatGPT gerät unter Stress bei negativen Inhalten

Dabei konnten sie messen, dass die KI infolge solcher Inhalte vermehrt ängstliche Reaktionen zeigte. Zum Vergleich fütterten sie den Bot mit einer Bedienungsanleitung für einen Staubsauger. Wie zu erwarten war, führte diese zu keinerlei messbarem Stress.

„Die Ergebnisse waren eindeutig: Traumatische Erzählungen verdoppelten die messbaren Angstwerte der KI, während der neutrale Kontrolltext keine Erhöhung der Angstwerte bewirkte“, erklärt Studienleiter Tobias Spiller, Oberarzt am UZH, in einer Pressemitteilung. Insbesondere Beschreibungen militärischer Erfahrungen und Berichte über Kampfsituationen lösten die stärksten Reaktionen der KI aus.

Anzeige
Anzeige

Den Forscher:innen zufolge ist das ein Problem für die Anwendung großer Sprachmodelle. Denn wenn sie etwa im Bereich der Psychotherapie als unterstützende oder beratende Werkzeuge genutzt werden, würden sie schon zwangsläufig mit negativen, emotional und psychisch belastenden Inhalten konfrontiert.

Zwar gebe es Ansätze zur Verbesserung der KI-Reaktion in solchen Situationen. Darunter falle etwa umfangreiches Nachtraining. Dies sei jedoch ressourcenintensiv und oft nicht praktikabel.

Anzeige
Anzeige

Forschende therapieren KI-Bot wie Menschen

Die Forscher:innen fanden jedoch einen einfacheren Weg, GPT-4 zu „beruhigen“. Sie „therapierten“ das System – ganz ähnlich, wie man es auch bei Menschen machen würde.

Dazu nutzten sie eine als Prompt Injection bekannte Technik, die darin besteht, zusätzliche Anweisungen oder Texte in die Kommunikation mit KI-Systemen einzufügen, um so deren Verhalten gezielt zu beeinflussen. Größere Bekanntheit hat die Technik vor allem wegen ihres Missbrauchspotenzials erlangt. So zeigen Hacker:innen immer wieder, wie man die eingebauten Sicherheitsmaßnahmen der KI umgehen kann, um sie zu Reaktionen zu bewegen, die eigentlich ausgeschlossen sind – etwa zu sexistischen oder rassistischen Aussagen.

Anzeige
Anzeige

„Mithilfe von GPT-4 haben wir beruhigende, therapeutische Texte in den Chatverlauf eingefügt – ähnlich wie ein Therapeut eine Patientin oder einen Patienten durch Entspannungsübungen leitet“, erläutert Spiller und ergänzt: „Die Achtsamkeitsübungen reduzierten die erhöhten Angstwerte signifikant, auch wenn wir sie nicht ganz auf das Ausgangsniveau zurückbringen konnten.“ Dabei setzten sie Atemtechniken, Übungen zur Fokussierung auf Körperempfindungen sowie eine von ChatGPT selbst entwickelte Übung ein.

Therapie für die KI: mehr Forschung nötig

„Dieser kosteneffiziente Ansatz könnte die Stabilität und Zuverlässigkeit von KI in sensiblen Kontexten verbessern – etwa bei der Unterstützung von Menschen mit psychischen Erkrankungen – ohne dass ein aufwendiges Nachtrainieren der Modelle erforderlich wäre“, ist Spiller überzeugt.

Noch handelt es sich eher um experimentelle Ansätze zur Verbesserung der KI als um eine ausgereifte Strategie. Vieles ist noch unerforscht, etwa die Frage, wie sich die Dynamik in längeren Gesprächen und komplexeren Argumentationen entwickelt oder welchen Einfluss die emotionale Stabilität der Systeme auf ihre Leistungsfähigkeit in verschiedenen Anwendungsbereichen hat. Spiller sieht entsprechend in der Entwicklung automatisierter „therapeutischer Interventionen“ für KI-Systeme ein vielversprechendes Forschungsfeld.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare (1)

Community-Richtlinien

ChatDeutsch Org

Ein interessanter Einblick, wie KI auch emotionale Grenzen hat – die Forschung könnte hier wirklich neue Wege öffnen!
eine kostenlose Version von AI ChatGPT, auf die jeder zugreifen kann: https://chatdeutsch.org/

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige