Chatbot ein „krankhafter Lügner“: Mitarbeiter warnten vor Veröffentlichung von Google Bard
Die Veröffentlichung des bahnbrechenden KI-Chatbots ChatGPT aus dem Hause OpenAI Ende 2022 erwischte Google auf dem falschen Fuß. Übereilt brachte der Suchmaschinengigant im März 2023 Bard heraus, seine eigene Version eines künstlich intelligenten Sprachprogramms. Dabei soll Google Warnungen von eigenen Mitarbeiter:innen ignoriert haben. Das suggeriert jedenfalls ein Bericht des Wirtschaftsmagazins Bloomberg. Bereits im Februar waren kritische interne Stimmen an die Öffentlichkeit gedrungen.
„Krankhafter Lügner“ und „zum Fremdschämen“
Bloomberg sprach mit aktuellen und früheren Google-Mitarbeiter:innen und wertete interne Nachrichten des Konzerns aus. Was dabei herauskommt, klingt verheerend. Laut einem Screenshot einer internen Diskussion bezeichnete ein firmeneigener Tester Bard als „krankhaften Lügner“. Ein Kollege oder eine Kollegin empfand die Antworten des Chatbots als „zum Fremdschämen“.
Von einem Tool, das einem Konzern wie Google nicht würdig sei, war die Rede. Auf einfache Fragen habe Bard peinliche Antworten gegeben. Bei heiklen Themen wie dem Landen eines Flugzeugs oder über das Scuba-Diving habe die KI sogar potenziell lebensgefährliche Informationen gegeben.
„Bitte nicht starten“
„Bard ist schlimmer als nutzlos: Bitte nicht starten“, soll ein Mitarbeitender im Februar 2023 geschrieben haben. Doch bekanntlich setzten sich die Verantwortlichen um KI-Chefin Jen Gennai über die Warnungen hinweg. Eine Risikobeurteilung soll laut Bloomberg übergangen worden sein.
Am 21. März 2023 brachte Google schließlich Bard heraus – zumindest für Beta-Tester:innen. Die Veröffentlichung wird offiziell als „Experiment“ bezeichnet und steht nur Tester:innen in den USA und Großbritannien zur Verfügung.
Das unterscheidet Bard von ChatGPT
Im Gegensatz zu dem von Konkurrent Microsoft geförderten ChatGPT soll Bard auch aktuelle Informationen aus dem Internet in seine Antworten einbeziehen. ChatGPT kann nur mit Daten bis zum Jahr 2021 aufwarten. In diesem Jahr wurde die Fütterung des Chatbots von OpenAI beendet.
Der nach William Shakespeare benannte Chatbot Bard basiert auf Lamda. Googles 2021 vorgestelltes Sprachmodell sorgte bereits in seiner Entwicklungsphase für Furore. Ein Entwickler hatte behauptet, dass die künstliche Intelligenz menschenähnliches Bewusstsein erlangt habe. Er musste gehen. Auch zwei Mitarbeiterinnen, die in einem Paper auf Mängel an Lamda hinwiesen, wurden gefeuert.
Sind Ihnen die Quellen/Mitarbeiter:innen bekannt, auf deren angebliche Aussagen dieser Artikel basiert oder ist Ihr Artikel eine Abschrift eines anderen Artikels, der der die Informationen ebenfalls von irgendeinem Medium übernommen hat, das ebenfalls nur auf Spekulationen „Berichterstattung“ betreibt? Sind Sie Ihren journalistischen Pflichten nachgekommen, haben Sie Google nach einer Stellungnahme gefragt? Können Soe ausschließen, dass die Mitarbeiter:innen für die Verbreitung „ihrer Meinungen“ nicht von Microsoft bezahlt wurden?
really funny….
Du forderst „seriöse Berichterstattung“ und wartest selbst mit einer Behauptung auf?
Und natürlich sind in deiner Behauptung die Mitarbeiter direkt von Microsoft bezahlt.
sinnfreies MS-Bashing…..mal wieder.
Was soll das?
Eine Frage ist keine Behauptung. Und: nenne mich nicht Journalist, arbeite nicht für eine Medium, verdiene mit meinem Kommentar kein Geld und bin demnach nicht an den Pressekodex gebunden. Du vergleichst Äpfel mit Birnen.