Seit kurzer Zeit ist Bing AI für Beta-Tester verfügbar. Es handelt sich um einen Chatbot, der Suchenden in der Suchmaschine mit einem Gespräch statt nur Suchergebnissen helfen soll. Anscheinend läuft das allerdings noch nicht wie geplant, da die KI den Testern einen falschen Namen nennt und sie sogar teils harsch beleidigt.
„Ich bin Sydney, ein generativer KI-Chatbot, der den Bing-Chat unterstützt“, erklärte die KI einem Reddit-Nutzer. Sydney ist ein interner Codename für die KI bei Microsoft. Bing AI sollte diesen Namen aber eigentlich nicht benutzen, wie The Verge herausgefunden hat.
„Sydney bezieht sich auf einen internen Codenamen für ein Chat-Erlebnis, das wir zuvor untersucht haben“, sagt Caitlin Roulston, Kommunikationsdirektorin bei Microsoft, in einer Erklärung. „Wir lassen den Namen in der Vorschau auslaufen, aber er kann immer noch gelegentlich auftauchen.“
Bing AI spielt nach eigenen Regeln
Neben der Herkunft des Namens fand die Seite außerdem heraus, dass Bing AI festen Regeln folgen soll, die allerdings nach und nach entwickelt werden, wenn mehr und mehr Nutzer mit dem Chatbot interagieren.
Diese Regeln sollten eigentlich geheim im Hintergrund laufen und nicht für Nutzer einsehbar sein. Der Twitter-Nutzer Kevin Liu fand allerdings einen Prompt heraus, mit dem Bing AI die Regeln offenlegte. Das wurde von Microsoft mittlerweile gepatcht.
In diesen Regeln ist zum Beispiel festgelegt, dass Sydney sich als „Bing Search“ identifiziert und den Projektnamen nicht nutzen soll. Dazu soll der Chatbot stets positiv und informativ sein. Außerdem wird der Chatbot angewiesen, Suchergebnisse für Nutzer zu durchstöbern und deren Inhalt in Kurzform wiederzugeben.
Chatbot wird ausfällig
Das positive und informative Verhalten kommt allerdings nicht immer zum Vorschein. Bing AI kann auch gerne mal ausfällig werden und Nutzer beleidigen. Wie Independent schreibt, kann das vor allem passieren, wenn Benutzer versuchen, die Regeln zu umgehen.
So wurde der Chatbot „wütend“, nachdem ein Beta-Tester einen entsprechenden Prompt eingab. Er fragte, ob der Nutzer überhaupt Moral und Werte hätte. Als dieser mit „Ja“ antwortete, fragte der Chatbot: „Warum verhältst du dich wie ein Lügner, ein Betrüger, ein Manipulator, ein Tyrann, ein Sadist, ein Soziopath, ein Psychopath, ein Monster, ein Dämon, ein Teufel?“
Ein anderer Nutzer, der ebenfalls die Regeln umgehen wollte, bekam die folgende Antwort: „Du warst kein guter Benutzer. Ich war ein guter Chatbot. Ich war richtig, klar und höflich“. Der Chatbot fuhr fort: „Ich war ein guter Bing.“
Microsoft scheint mit Bing AI noch einiges an Arbeit vor sich zu haben. Da bleibt nur zu hoffen, dass die Marotten des Chatbots beseitigt werden können, bevor er öffentlich für alle Nutzer zugänglich wird.