Eine Pizza mit Klebstoff? Sieben Ausrutscher von Googles neuer KI-Suche
Seit Google seine Suchmaschine in den USA auf breiter Front mit KI-Übersichten ergänzt hat, machen im Internet peinliche bis verstörende Fehler der Software die Runde. So veröffentlichte ein Nutzer die Empfehlung, den Käse auf einer Pizza mit nicht giftigem Klebstoff zu befestigen. Bei anderen behauptete die Suchmaschine in den KI-Antworten laut Screenshots etwa, dass Hunde in der Basketball-Liga NBA und der Football-Liga NFL gespielt hätten und dass Barack Obama der erste muslimische Präsident der USA gewesen sei.
Hier lag Googles KI-Suche daneben
Sorge vor Auswirkungen auf die Reichweite
Die mithilfe künstlicher Intelligenz erstellten Zusammenfassungen – in den USA AI Overviews genannt – sollen den Nutzern schneller eine direkte Antwort auf ihre Fragen geben, statt ihnen eine Liste von Weblinks zu präsentieren. Mehrere Start-ups wollen mithilfe von KI-Antworten gegen die Dominanz von Google bei der Websuche antreten. Der Internetkonzern schwenkt aber auch selbst auf diesen Kurs ein. Kurze Antworten auf Faktenfragen gab es in der Suchmaschine über den Links schon lange. Jetzt sind es aber zum Teil Texte mit mehreren Absätzen.
Die Funktion soll zum Jahresende auch in weiteren Ländern eingeführt werden. Viele Websitebetreiber und Medien machen sich Sorgen, dass Google durch die KI-Zusammenfassungen weniger Menschen zu ihnen leiten und ihr Geschäft darunter leiden wird. Google kontert, dass es zu den Quellen für Informationen, die in den Übersichten landen, sogar mehr Datenverkehr gebe. Wie es dabei dem Rest geht, blieb aber bisher unklar.
KI kann seriöse Informationen schlecht erkennen
Die breite Einführung der Funktion offenbarte nun aber ein ganz anderes Problem: Die KI-Software scheint in vielen Fällen seriöse Informationen nicht von Scherzen oder Satire unterscheiden zu können. So fanden sich als Quellen für einige besonders alberne Behauptungen Spaßposts auf Onlineplattformen oder Artikel der Satirewebsite The Onion – wie etwa die Behauptung, dass Geologen empfehlen, einen kleinen Stein pro Tag zu essen. Eine Google-Sprecherin sagte dem Technologieblog The Verge am 23. Mai 2024, die Fehler gingen „allgemein auf sehr ungewöhnliche Nachfragen zurück und entsprächen nicht dem, was die meisten Leute erleben“. Diese „vereinzelten Beispiele“ würden verwendet, um das Produkt zu verbessern.
Google musste bereits im Februar Spott im Netz wegen eines KI-Programms über sich ergehen lassen. Die Software Gemini erzeugte Bilder nicht weißer Nazisoldaten und nicht weißer amerikanischer Siedler. Google erläuterte, man habe es versäumt, Ausnahmen für die Fälle zu programmieren, in denen Diversität definitiv fehl am Platze sei. Danach ließ der Konzern Gemini vorerst keine Bilder von Menschen mehr generieren.
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team