Texte, die von künstlicher Intelligenz geschrieben wurden, sind mitunter faszinierend. Auch Chatbots, die im Kundensupport eingesetzt werden, können dazu beitragen, Probleme von Kunden schnell und einfach zu lösen, ohne dass ein menschlicher Mitarbeiter sich vor den Rechner setzen muss. Selbst als Anwalt kann eine KI eingesetzt werden, wenn ihre Algorithmen darauf trainiert werden, sich mit rechtlichen Fragen zu befassen.
Ein sensibles, aber überaus wichtiges Thema ist die psychische Gesundheit. Hierbei stellt sich die Frage, ob eine KI überhaupt in der Lage ist, einen sicheren und effektiven Support zu leisten, oder ob es doch die Empathie und Psyche eines Menschen braucht. Das Unternehmen Koko entschied sich im Oktober des vergangenen Jahres dazu, eine KI einzusetzen, um ein Unterstützungssystem für seine rund 4.000 Nutzer zu entwickeln. Koko ist ein Peer-to-Peer-Dienst für psychische Gesundheit, bei dem Menschen um Rat und Unterstützung von anderen Nutzern bitten können.
Twitter-Nutzer stellen Ethikfragen
In einem Interview mit Gizmodo gab Mitgründer Rob Morris an, dass das die Zukunft sein werde. „Wir werden denken, dass wir mit Menschen interagieren, und nicht wissen, ob eine KI beteiligt war. Wie wirkt sich das auf die Mensch-zu-Mensch-Kommunikation aus?“, so Morris, der nach eigenen Aussagen selbst mit psychischen Problemen konfrontiert ist. Koko entschied sich dazu, den auf GPT‑3 von OpenAI basierenden Koko Bot zu testen, um automatische Antworten zu generieren. Laut Morris erhielten die 30.000 KI-unterstützten Nachrichten, die während des Tests gesendet wurden, eine überwältigende positive Resonanz. Dennoch beendete das Unternehmen das Experiment bereits nach einigen Tagen.
Bei Twitter kam es daraufhin zu einer Diskussion über die ethische Vertretbarkeit von Kokos Experiment, da Nutzer nicht gewusst hätten, dass sie nur mit einem Bot chatten. Diese Behauptung revidierte Morris. Die Nutzer hätten sehr wohl gewusst, dass eine KI an den Nachrichten beteiligt gewesen sei. Dennoch bestehen im Netz Zweifel, ob die Nutzer wirklich gut genug informiert wurden und welche Risiken das Testen der Technologie in einer Live-Umgebung mit psychisch kranken Menschen birgt.