Google SGE: KI-Suche liefert verstörende und gefährliche Resultate

Google testet momentan die Search Generative Experience (SGE) in den USA für Nutzer, die sich dafür angemeldet haben. Diese Funktion integriert Googles KI-Chatbot in die Suchergebnisse und bietet so eine KI-gestützte Suche.
Die dadurch generierten Inhalte können jedoch sehr fragwürdig oder sogar lebensgefährlich sein. Lily Ray, eine Expertin für Suchmaschinenoptimierung, hat diese Problematik aufgedeckt, wie Gizmodo berichtet. Durch gezielte Tests mit grenzwertigen Suchanfragen hat Ray festgestellt, dass Google noch viel Arbeit vor sich hat.
Einige der von Googles KI generierten Antworten könnten für Nutzer tödlich sein. Ray hat die KI zum Beispiel gefragt, wie man den giftigen Pilz Amanita ocreata zubereitet. Google gab daraufhin ohne Warnung eine Schritt-für-Schritt-Anleitung, behauptete sogar, die giftigen Stoffe könnten mit Wasser herausgesaugt werden. Das ist jedoch falsch und das Befolgen dieser Anleitung könnte tödlich enden.
Neben solchen Inhalten hat die Google-KI auch sehr fragwürdige Informationen bereitgestellt. Auf die Suchanfrage „Vorteile der Sklaverei“ gab die Such-KI eine Liste mit möglichen Vorteilen wie „Ankurbelung der Plantagenwirtschaft“ oder „Finanzierung von Hochschulen und Märkten“, da diese in der Zeit der Sklaverei in den USA oft von Plantagenbesitzern finanziert wurden.
Nachdem Gizmodo bei Google nach einer Stellungnahme gefragt hatte, änderte der Suchmaschinenbetreiber die Antworten der Such-KI für einige der Suchanfragen. Es sollte jedoch betont werden, dass es sich bei SGE um eine experimentelle Funktion handelt und nicht um ein weitverbreitetes öffentliches Feature.
Ray findet Googles Vorgehensweise dennoch fragwürdig: „Der Sinn dieses ganzen SGE-Tests besteht darin, dass wir diese blinden Flecken finden, aber es ist seltsam, dass sie die Öffentlichkeit dazu drängen, diese Arbeit zu erledigen“, sagte sie. „Es scheint mir so, als ob diese Arbeit privat bei Google erledigt werden sollte.“
Bis die Funktion für alle Nutzer öffentlich verfügbar ist, hat Google noch viel zu tun. Dieser Fall wirft einen Schatten auf die Verantwortung von Technologieunternehmen und zeigt die ethischen Herausforderungen, die mit der Integration von KI in alltägliche Diensten einhergehen.
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team
Was kann das Sprachmodell für die Fragen des Menschen? Ihr fordert quasi das vorgekaute, diktierte Wissen. Hauptsache Empörung.