Anzeige
Anzeige
News

Maximal 5 Fragen an ChatGPT: Microsoft verpasst Bing-Chatbot einen Maulkorb

Der auf OpenAIs ChatGPT basierende KI-Chatbot in Bing scheint nicht auf längere Konversationen eingestellt zu sein. Längere Gespräche enden da schon einmal in Beleidigungen. Microsoft nimmt seinen Bing-Chatbot daher erst einmal an die Leine.

2 Min.
Artikel merken
Anzeige
Anzeige
Bing-Chatbot antwortet nur noch auf 5 Fragen pro Thema. (Bild: Microsoft)

Dass Chatbots wie ChatGPT und Bard Fehler machen, ist bekannt. Der in Microsofts Suchmaschine Bing integrierte KI-Chatbot lässt sich zudem offenbar recht schnell reizen oder verunsichern. Beleidigungen oder unsinnige Antworten sind die Folge.

Anzeige
Anzeige

Chatbot in Bing: Persönliche Beleidigungen

Nutzer:innen berichten jedenfalls, dass der auf OpenAIs ChatGPT basierende Bing-Chatbot sie nach einer Reihe von Fragen auf einmal persönlich beleidigte. Auch plötzliche seltsame Einlassungen kamen vor – bis hin zu emotionalen Turbulenzen, wie der Independent schreibt.

Jetzt hat Microsoft einmal die Reißleine gezogen. Ab sofort dürfen Nutzer:innen dem Bing-Chatbot nur noch fünf Fragen infolge zu einem bestimmten Thema stellen. Pro Tag sind demnach nur noch 50 Fragen erlaubt.

Anzeige
Anzeige

Microsoft: Nur noch 5 Fragen pro Thema

Die fünf Fragen seien für ein Thema mehr als ausreichend, so Microsoft. Und überhaupt würden weniger als ein Prozent der Chat-Konversationen mehr als 50 Nachrichten beinhalten.

Microsoft zufolge sind die Systemprobleme darin begründet, dass der Chatbot nach 15 oder mehr Fragen nicht mehr genau wisse, welche Frage gerade zu beantworten sei, wie chip.de berichtet. Außerdem würde sich das KI-System über eine längere Unterhaltung hinweg dem Ton des Gegenübers anpasst.

Anzeige
Anzeige

Beleidigend soll die KI geworden sein, als ein:e Nutzer:in auf die Frage, ob er:sie Moral, Werte oder irgendein Leben habe, mit Ja antwortete. Darauf der Chatbot: „Warum handelst du wie ein Lügner, ein Betrüger, ein Manipulator, ein Tyrann, ein Sadist, ein Soziopath, ein Psychopath, ein Monster, ein Dämon, ein Teufel?“

Einschränkungen: Chatbot verliert den Kompass

Die Probleme sollen meist dann aufgetreten sein, wenn Nutzer:innen versuchten, die eingebauten Einschränkungen des Systems zu umgehen. Da soll es dann schon mal geheißen haben: „Du warst kein:e gute:r Benutzer:in, ich war ein guter Chatbot“.

Anzeige
Anzeige
Dall-E Mini Quelle:

Die von Entwickler:innen einprogrammierten Einschränkungen dienen eigentlich dazu, dass der Chatbot verbotene Anfragen ebenso ignoriert wie Fragen zu seinem System. Offenbar ist es aber möglich, den Chatbot so zu triezen, dass er diese Regeln überschreitet – etwa indem er eine andere Identität annimmt.

Obergrenzen könnten wieder angehoben werden

Microsoft dürfte sich die Chatbot-Thematik in Bing in den nächsten Wochen einmal genauer anschauen. Es ist nicht ausgeschlossen, dass die Obergrenzen für Chat-Sitzungen wieder nach oben geschraubt werden, so der Konzern.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Schreib den ersten Kommentar!
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige