Dass Chatbots wie ChatGPT und Bard Fehler machen, ist bekannt. Der in Microsofts Suchmaschine Bing integrierte KI-Chatbot lässt sich zudem offenbar recht schnell reizen oder verunsichern. Beleidigungen oder unsinnige Antworten sind die Folge.
Chatbot in Bing: Persönliche Beleidigungen
Nutzer:innen berichten jedenfalls, dass der auf OpenAIs ChatGPT basierende Bing-Chatbot sie nach einer Reihe von Fragen auf einmal persönlich beleidigte. Auch plötzliche seltsame Einlassungen kamen vor – bis hin zu emotionalen Turbulenzen, wie der Independent schreibt.
Jetzt hat Microsoft einmal die Reißleine gezogen. Ab sofort dürfen Nutzer:innen dem Bing-Chatbot nur noch fünf Fragen infolge zu einem bestimmten Thema stellen. Pro Tag sind demnach nur noch 50 Fragen erlaubt.
Microsoft: Nur noch 5 Fragen pro Thema
Die fünf Fragen seien für ein Thema mehr als ausreichend, so Microsoft. Und überhaupt würden weniger als ein Prozent der Chat-Konversationen mehr als 50 Nachrichten beinhalten.
Microsoft zufolge sind die Systemprobleme darin begründet, dass der Chatbot nach 15 oder mehr Fragen nicht mehr genau wisse, welche Frage gerade zu beantworten sei, wie chip.de berichtet. Außerdem würde sich das KI-System über eine längere Unterhaltung hinweg dem Ton des Gegenübers anpasst.
Beleidigend soll die KI geworden sein, als ein:e Nutzer:in auf die Frage, ob er:sie Moral, Werte oder irgendein Leben habe, mit Ja antwortete. Darauf der Chatbot: „Warum handelst du wie ein Lügner, ein Betrüger, ein Manipulator, ein Tyrann, ein Sadist, ein Soziopath, ein Psychopath, ein Monster, ein Dämon, ein Teufel?“
Einschränkungen: Chatbot verliert den Kompass
Die Probleme sollen meist dann aufgetreten sein, wenn Nutzer:innen versuchten, die eingebauten Einschränkungen des Systems zu umgehen. Da soll es dann schon mal geheißen haben: „Du warst kein:e gute:r Benutzer:in, ich war ein guter Chatbot“.
Die von Entwickler:innen einprogrammierten Einschränkungen dienen eigentlich dazu, dass der Chatbot verbotene Anfragen ebenso ignoriert wie Fragen zu seinem System. Offenbar ist es aber möglich, den Chatbot so zu triezen, dass er diese Regeln überschreitet – etwa indem er eine andere Identität annimmt.
Obergrenzen könnten wieder angehoben werden
Microsoft dürfte sich die Chatbot-Thematik in Bing in den nächsten Wochen einmal genauer anschauen. Es ist nicht ausgeschlossen, dass die Obergrenzen für Chat-Sitzungen wieder nach oben geschraubt werden, so der Konzern.