Was tun, wenn die KI wieder flunkert? Ansätze, um die Fehlerquote von Chatbots zu senken

Kann man KI-Chatbots das Lügen abtrainieren? (Bild: Midjourney / t3n)
Der Chatbot der Weltgesundheitsorganisation wurde am 2. April mit den besten Absichten gestartet. SARAH (Smart AI Resource Assistant for Health), ein Avatar, der auf GPT-3.5 zurückgreift, beantwortet Fragen zu Gesundheitsthemen in acht verschiedenen Sprachen, etwa wie man sich gesund ernährt, mit dem Rauchen aufhört, Stress abbaut und vieles mehr. Aber wie alle Chatbots macht auch SARAH Fehler. In einem Fall gab sie beispielsweise eine Liste mit falschen Namen und Adressen für nicht existierende Kliniken in San Francisco aus. Die Weltgesundheitsorganisation warnt auf ihrer Website, dass SARAH nicht immer genau sein könnte.
- Zugriff auf alle Artikel auf t3n.de
- t3n Magazin und Technology Review in Digitaler Form
- Reduzierte Werbung
- Wöchentlicher Newsletter
im ersten Monat, danach ab 10,36 € pro Monat
Jetzt testenDu bist bereits Plus- oder Pro-Member?
Hier anmelden