Anzeige
Anzeige
News

Bing AI nennt sich selbst Sydney und beleidigt Beta-Tester

Microsofts Chatbot in der Suchmaschine gibt sich scheinbar selbst einen falschen Namen und beleidigt einige Beta-Tester. Laut Microsoft kann der falsche Name hier und da noch auftauchen, sollte aber mit der Zeit auslaufen.

2 Min.
Artikel merken
Anzeige
Anzeige

Bing kann unfreundlich werden. (Bild: Microsoft)

Seit kurzer Zeit ist Bing AI für Beta-Tester verfügbar. Es handelt sich um einen Chatbot, der Suchenden in der Suchmaschine mit einem Gespräch statt nur Suchergebnissen helfen soll. Anscheinend läuft das allerdings noch nicht wie geplant, da die KI den Testern einen falschen Namen nennt und sie sogar teils harsch beleidigt.

Anzeige
Anzeige

„Ich bin Sydney, ein generativer KI-Chatbot, der den Bing-Chat unterstützt“, erklärte die KI einem Reddit-Nutzer. Sydney ist ein interner Codename für die KI bei Microsoft. Bing AI sollte diesen Namen aber eigentlich nicht benutzen, wie The Verge herausgefunden hat.

„Sydney bezieht sich auf einen internen Codenamen für ein Chat-Erlebnis, das wir zuvor untersucht haben“, sagt Caitlin Roulston, Kommunikationsdirektorin bei Microsoft, in einer Erklärung. „Wir lassen den Namen in der Vorschau auslaufen, aber er kann immer noch gelegentlich auftauchen.“

Anzeige
Anzeige

Bing AI spielt nach eigenen Regeln

Neben der Herkunft des Namens fand die Seite außerdem heraus, dass Bing AI festen Regeln folgen soll, die allerdings nach und nach entwickelt werden, wenn mehr und mehr Nutzer mit dem Chatbot interagieren.

Diese Regeln sollten eigentlich geheim im Hintergrund laufen und nicht für Nutzer einsehbar sein. Der Twitter-Nutzer Kevin Liu fand allerdings einen Prompt heraus, mit dem Bing AI die Regeln offenlegte. Das wurde von Microsoft mittlerweile gepatcht.

Anzeige
Anzeige

In diesen Regeln ist zum Beispiel festgelegt, dass Sydney sich als „Bing Search“ identifiziert und den Projektnamen nicht nutzen soll. Dazu soll der Chatbot stets positiv und informativ sein. Außerdem wird der Chatbot angewiesen, Suchergebnisse für Nutzer zu durchstöbern und deren Inhalt in Kurzform wiederzugeben.

Chatbot wird ausfällig

Das positive und informative Verhalten kommt allerdings nicht immer zum Vorschein. Bing AI kann auch gerne mal ausfällig werden und Nutzer beleidigen. Wie Independent schreibt, kann das vor allem passieren, wenn Benutzer versuchen, die Regeln zu umgehen.

Anzeige
Anzeige

So wurde der Chatbot „wütend“, nachdem ein Beta-Tester einen entsprechenden Prompt eingab. Er fragte, ob der Nutzer überhaupt Moral und Werte hätte. Als dieser mit „Ja“ antwortete, fragte der Chatbot: „Warum verhältst du dich wie ein Lügner, ein Betrüger, ein Manipulator, ein Tyrann, ein Sadist, ein Soziopath, ein Psychopath, ein Monster, ein Dämon, ein Teufel?“

Ein anderer Nutzer, der ebenfalls die Regeln umgehen wollte, bekam die folgende Antwort: „Du warst kein guter Benutzer. Ich war ein guter Chatbot. Ich war richtig, klar und höflich“. Der Chatbot fuhr fort: „Ich war ein guter Bing.“

Microsoft scheint mit Bing AI noch einiges an Arbeit vor sich zu haben. Da bleibt nur zu hoffen, dass die Marotten des Chatbots beseitigt werden können, bevor er öffentlich für alle Nutzer zugänglich wird.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Schreib den ersten Kommentar!
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige