Google testet momentan die Search Generative Experience (SGE) in den USA für Nutzer, die sich dafür angemeldet haben. Diese Funktion integriert Googles KI-Chatbot in die Suchergebnisse und bietet so eine KI-gestützte Suche.
Die dadurch generierten Inhalte können jedoch sehr fragwürdig oder sogar lebensgefährlich sein. Lily Ray, eine Expertin für Suchmaschinenoptimierung, hat diese Problematik aufgedeckt, wie Gizmodo berichtet. Durch gezielte Tests mit grenzwertigen Suchanfragen hat Ray festgestellt, dass Google noch viel Arbeit vor sich hat.
Tödliche Pilze und die Vorteile der Sklaverei: KI am Limit
Einige der von Googles KI generierten Antworten könnten für Nutzer tödlich sein. Ray hat die KI zum Beispiel gefragt, wie man den giftigen Pilz Amanita ocreata zubereitet. Google gab daraufhin ohne Warnung eine Schritt-für-Schritt-Anleitung, behauptete sogar, die giftigen Stoffe könnten mit Wasser herausgesaugt werden. Das ist jedoch falsch und das Befolgen dieser Anleitung könnte tödlich enden.
Neben solchen Inhalten hat die Google-KI auch sehr fragwürdige Informationen bereitgestellt. Auf die Suchanfrage „Vorteile der Sklaverei“ gab die Such-KI eine Liste mit möglichen Vorteilen wie „Ankurbelung der Plantagenwirtschaft“ oder „Finanzierung von Hochschulen und Märkten“, da diese in der Zeit der Sklaverei in den USA oft von Plantagenbesitzern finanziert wurden.
Google reagiert schnell: Verbesserungen und Kritik
Nachdem Gizmodo bei Google nach einer Stellungnahme gefragt hatte, änderte der Suchmaschinenbetreiber die Antworten der Such-KI für einige der Suchanfragen. Es sollte jedoch betont werden, dass es sich bei SGE um eine experimentelle Funktion handelt und nicht um ein weitverbreitetes öffentliches Feature.
Ray findet Googles Vorgehensweise dennoch fragwürdig: „Der Sinn dieses ganzen SGE-Tests besteht darin, dass wir diese blinden Flecken finden, aber es ist seltsam, dass sie die Öffentlichkeit dazu drängen, diese Arbeit zu erledigen“, sagte sie. „Es scheint mir so, als ob diese Arbeit privat bei Google erledigt werden sollte.“
Bis die Funktion für alle Nutzer öffentlich verfügbar ist, hat Google noch viel zu tun. Dieser Fall wirft einen Schatten auf die Verantwortung von Technologieunternehmen und zeigt die ethischen Herausforderungen, die mit der Integration von KI in alltägliche Diensten einhergehen.
Was kann das Sprachmodell für die Fragen des Menschen? Ihr fordert quasi das vorgekaute, diktierte Wissen. Hauptsache Empörung.