
Bing kann unfreundlich werden. (Bild: Microsoft)
Seit kurzer Zeit ist Bing AI für Beta-Tester verfügbar. Es handelt sich um einen Chatbot, der Suchenden in der Suchmaschine mit einem Gespräch statt nur Suchergebnissen helfen soll. Anscheinend läuft das allerdings noch nicht wie geplant, da die KI den Testern einen falschen Namen nennt und sie sogar teils harsch beleidigt.
„Ich bin Sydney, ein generativer KI-Chatbot, der den Bing-Chat unterstützt“, erklärte die KI einem Reddit-Nutzer. Sydney ist ein interner Codename für die KI bei Microsoft. Bing AI sollte diesen Namen aber eigentlich nicht benutzen, wie The Verge herausgefunden hat.
„Sydney bezieht sich auf einen internen Codenamen für ein Chat-Erlebnis, das wir zuvor untersucht haben“, sagt Caitlin Roulston, Kommunikationsdirektorin bei Microsoft, in einer Erklärung. „Wir lassen den Namen in der Vorschau auslaufen, aber er kann immer noch gelegentlich auftauchen.“
Neben der Herkunft des Namens fand die Seite außerdem heraus, dass Bing AI festen Regeln folgen soll, die allerdings nach und nach entwickelt werden, wenn mehr und mehr Nutzer mit dem Chatbot interagieren.
Diese Regeln sollten eigentlich geheim im Hintergrund laufen und nicht für Nutzer einsehbar sein. Der Twitter-Nutzer Kevin Liu fand allerdings einen Prompt heraus, mit dem Bing AI die Regeln offenlegte. Das wurde von Microsoft mittlerweile gepatcht.
In diesen Regeln ist zum Beispiel festgelegt, dass Sydney sich als „Bing Search“ identifiziert und den Projektnamen nicht nutzen soll. Dazu soll der Chatbot stets positiv und informativ sein. Außerdem wird der Chatbot angewiesen, Suchergebnisse für Nutzer zu durchstöbern und deren Inhalt in Kurzform wiederzugeben.
Das positive und informative Verhalten kommt allerdings nicht immer zum Vorschein. Bing AI kann auch gerne mal ausfällig werden und Nutzer beleidigen. Wie Independent schreibt, kann das vor allem passieren, wenn Benutzer versuchen, die Regeln zu umgehen.
So wurde der Chatbot „wütend“, nachdem ein Beta-Tester einen entsprechenden Prompt eingab. Er fragte, ob der Nutzer überhaupt Moral und Werte hätte. Als dieser mit „Ja“ antwortete, fragte der Chatbot: „Warum verhältst du dich wie ein Lügner, ein Betrüger, ein Manipulator, ein Tyrann, ein Sadist, ein Soziopath, ein Psychopath, ein Monster, ein Dämon, ein Teufel?“
Ein anderer Nutzer, der ebenfalls die Regeln umgehen wollte, bekam die folgende Antwort: „Du warst kein guter Benutzer. Ich war ein guter Chatbot. Ich war richtig, klar und höflich“. Der Chatbot fuhr fort: „Ich war ein guter Bing.“
Microsoft scheint mit Bing AI noch einiges an Arbeit vor sich zu haben. Da bleibt nur zu hoffen, dass die Marotten des Chatbots beseitigt werden können, bevor er öffentlich für alle Nutzer zugänglich wird.
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team