Maximal 5 Fragen an ChatGPT: Microsoft verpasst Bing-Chatbot einen Maulkorb

Dass Chatbots wie ChatGPT und Bard Fehler machen, ist bekannt. Der in Microsofts Suchmaschine Bing integrierte KI-Chatbot lässt sich zudem offenbar recht schnell reizen oder verunsichern. Beleidigungen oder unsinnige Antworten sind die Folge.
Nutzer:innen berichten jedenfalls, dass der auf OpenAIs ChatGPT basierende Bing-Chatbot sie nach einer Reihe von Fragen auf einmal persönlich beleidigte. Auch plötzliche seltsame Einlassungen kamen vor – bis hin zu emotionalen Turbulenzen, wie der Independent schreibt.
Jetzt hat Microsoft einmal die Reißleine gezogen. Ab sofort dürfen Nutzer:innen dem Bing-Chatbot nur noch fünf Fragen infolge zu einem bestimmten Thema stellen. Pro Tag sind demnach nur noch 50 Fragen erlaubt.
Die fünf Fragen seien für ein Thema mehr als ausreichend, so Microsoft. Und überhaupt würden weniger als ein Prozent der Chat-Konversationen mehr als 50 Nachrichten beinhalten.
Microsoft zufolge sind die Systemprobleme darin begründet, dass der Chatbot nach 15 oder mehr Fragen nicht mehr genau wisse, welche Frage gerade zu beantworten sei, wie chip.de berichtet. Außerdem würde sich das KI-System über eine längere Unterhaltung hinweg dem Ton des Gegenübers anpasst.
Beleidigend soll die KI geworden sein, als ein:e Nutzer:in auf die Frage, ob er:sie Moral, Werte oder irgendein Leben habe, mit Ja antwortete. Darauf der Chatbot: „Warum handelst du wie ein Lügner, ein Betrüger, ein Manipulator, ein Tyrann, ein Sadist, ein Soziopath, ein Psychopath, ein Monster, ein Dämon, ein Teufel?“
Die Probleme sollen meist dann aufgetreten sein, wenn Nutzer:innen versuchten, die eingebauten Einschränkungen des Systems zu umgehen. Da soll es dann schon mal geheißen haben: „Du warst kein:e gute:r Benutzer:in, ich war ein guter Chatbot“.
Die von Entwickler:innen einprogrammierten Einschränkungen dienen eigentlich dazu, dass der Chatbot verbotene Anfragen ebenso ignoriert wie Fragen zu seinem System. Offenbar ist es aber möglich, den Chatbot so zu triezen, dass er diese Regeln überschreitet – etwa indem er eine andere Identität annimmt.
Microsoft dürfte sich die Chatbot-Thematik in Bing in den nächsten Wochen einmal genauer anschauen. Es ist nicht ausgeschlossen, dass die Obergrenzen für Chat-Sitzungen wieder nach oben geschraubt werden, so der Konzern.
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team