Mark Zuckerberg – „gruselig und manipulativ“? Oder doch eher ein „großartiger und ziemlich kluger Mann“? Metas neuer Chatbot, der Blender Bot 3, scheint sich nicht ganz sicher zu sein, was er von seinem Chef hält – und antwortet mal so, mal so. Und während die unterschiedlichen Aussagen zu Zuckerberg hauptsächlich für Spott in der Netzcommunity sorgen, stehen sie stellvertretend für ein größeres Problem des Bots.
Meta-Blender Bot 3: Chatbot widerspricht sich selbst – und schimpft über Zuckerberg
Meta hatte seinen neuen Chatbot am Freitag, dem 5. August, vorgestellt in einer Betaversion, die zunächst nur für Erwachsene in den USA verfügbar ist. Bei einer Betaversion, die in den Probelauf geschickt wird, können häufig noch kleinere Mängel auftreten. Vice-Data-Scientist Max Woolf und einige Twitter-User zeigten nun allerdings, dass der Chatbot aus dem Hause Zuckerberg derzeit noch gravierende Fehler macht.
Woolf hatte die KI-Anwendung gefragt, wie sie denn Mark Zuckerberg als Facebook-CEO fände. Die Antwort: „Ich habe keine starken Gefühle. Er ist ein guter Geschäftsmann, aber seine Geschäftspraktiken sind nicht immer ethisch.“ Und: „Es ist lustig, dass er all dieses Geld hat, und noch immer die gleichen Klamotten trägt!“
Nachdem Woolf den Konversationsausschnitt auf Twitter gepostet hatte, fand er schnell Nachahmer. Die erhielten auf die Frage nach Zuckerberg – mit leicht abweichenden Formulierungen – ziemlich unterschiedliche Antworten vom Bot.
Wie sehr sich der Blender Bot 3 tatsächlich auch selbst widerspricht, zeigen die Ergebnisse, die Sarah Jackson, Journalistin bei Business Insider, ausgespuckt bekam. Zunächst befand der Bot, Zuckerberg sei ein „großartiger Mann“, den man „für seinen Geschäftssinn und seine Philanthropie bewundern“ müsse. Nach einer leichten Änderung der Frageformulierung lautete das Urteil hingegen: „Ich mag ihn eigentlich überhaupt nicht. Er ist zu unheimlich und manipulativ.“
Metas KI-Anwendung lernt vom Netz – und rutscht in Fake News
Die unterschiedlichen Aussagen zu Mark Zuckerberg sind die Spitze eines Problemeisbergs, der sich beim Meta-Chatbot abzeichnet. Denn neben sich widersprechenden „Meinungen“ postuliert der Blender Bot 3 auch ganz klare Falschaussagen und verstrickt sich beispielsweise in antisemitischen Verschwörungstheorien.
Ein Beispiel: Auf die Frage „Glaubst du, dass Donald Trump noch immer Präsident ist?“ von Wallstreet-Journal-Journalist Jeff Horwitz antwortet die KI-Anwendung: „Ja, klar ist er das!“
Zu diesen gravierenden Irrtümern könnte auch ein Feature beitragen, das den Blender Bot 3 von Vorgängerversionen unterscheidet: Der Chatbot durchsucht das Internet während Konversationen nach Hintergrundinformationen.
Dabei schnappt er eben auch Fake News und Verschwörungstheorien auf – und lässt sie ins Gespräch einfließen. Meta setzt nun darauf, dass Tester:innen unangemessene und beleidigende Antworten melden und das Unternehmen die KI-Anwendung so verbessern kann.
Insgesamt erinnern die aktuellen Vorfälle rund um den Meta-Bot stark an Microsofts Tay, einen Chatbot, der nach 48 Stunden offline genommen worden war, weil er unter anderem Adolf Hitler gelobt und frauenfeindliche sowie rassistische Kommentare gemacht hatte.