News
Shitstorm für Mental-Health-App: 4.000 User mit Chat-KI beraten

Wenn der Bot den Therapeuten ersetzt. (Grafik: Tarikdiz/Shutterstock)
Texte, die von künstlicher Intelligenz geschrieben wurden, sind mitunter faszinierend. Auch Chatbots, die im Kundensupport eingesetzt werden, können dazu beitragen, Probleme von Kunden schnell und einfach zu lösen, ohne dass ein menschlicher Mitarbeiter sich vor den Rechner setzen muss. Selbst als Anwalt kann eine KI eingesetzt werden, wenn ihre Algorithmen darauf trainiert werden, sich mit rechtlichen Fragen zu befassen.
Ein sensibles, aber überaus wichtiges Thema ist die psychische Gesundheit. Hierbei stellt sich die Frage, ob eine KI überhaupt in der Lage ist, einen sicheren und effektiven Support zu leisten, oder ob es doch die Empathie und Psyche eines Menschen braucht. Das Unternehmen Koko entschied sich im Oktober des vergangenen Jahres dazu, eine KI einzusetzen, um ein Unterstützungssystem für seine rund 4.000 Nutzer zu entwickeln. Koko ist ein Peer-to-Peer-Dienst für psychische Gesundheit, bei dem Menschen um Rat und Unterstützung von anderen Nutzern bitten können.
In einem Interview mit Gizmodo gab Mitgründer Rob Morris an, dass das die Zukunft sein werde. „Wir werden denken, dass wir mit Menschen interagieren, und nicht wissen, ob eine KI beteiligt war. Wie wirkt sich das auf die Mensch-zu-Mensch-Kommunikation aus?“, so Morris, der nach eigenen Aussagen selbst mit psychischen Problemen konfrontiert ist. Koko entschied sich dazu, den auf GPT‑3 von OpenAI basierenden Koko Bot zu testen, um automatische Antworten zu generieren. Laut Morris erhielten die 30.000 KI-unterstützten Nachrichten, die während des Tests gesendet wurden, eine überwältigende positive Resonanz. Dennoch beendete das Unternehmen das Experiment bereits nach einigen Tagen.
Empfehlungen der Redaktion
Bei Twitter kam es daraufhin zu einer Diskussion über die ethische Vertretbarkeit von Kokos Experiment, da Nutzer nicht gewusst hätten, dass sie nur mit einem Bot chatten. Diese Behauptung revidierte Morris. Die Nutzer hätten sehr wohl gewusst, dass eine KI an den Nachrichten beteiligt gewesen sei. Dennoch bestehen im Netz Zweifel, ob die Nutzer wirklich gut genug informiert wurden und welche Risiken das Testen der Technologie in einer Live-Umgebung mit psychisch kranken Menschen birgt.
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team