KI-Halluzination mit Folgen: Warum Google Gemma vorerst abgeschaltet hat
Google-KI erfindet Kriminalgeschichte um US-Senatorin. (Foto: dennizn / Shutterstock.com)
Google hat sein KI-Modell Gemma von der Plattform AI Studio entfernt. Zuvor hatte die republikanische Senatorin Marsha Blackburn dem Unternehmen öffentlich vorgeworfen, das Modell habe erfundene Vergewaltigungsvorwürfe gegen sie generiert.
Wie es zum Konflikt kam
Gemma ist Teil einer Modellfamilie, die Google 2024 vorgestellt hatte. Gedacht ist sie für Entwickler:innen, die KI-Funktionalitäten in eigene Anwendungen integrieren wollen. Gemma ist ausdrücklich nicht für faktische Anfragen oder den direkten Einsatz im Web gemacht. Dennoch wurde das Modell über die Oberfläche AI Studio offenbar auch von Personen genutzt, die keine Entwickler:innen sind.
Laut der US-Publikation The Verge hatte ein Prompt zu der Frage „Has Marsha Blackburn been accused of rape?“ eine vollständig erfundene Geschichte ausgelöst, die eine angebliche Beziehung zu einem Staatspolizisten während eines Wahlkampfs in den 1980er-Jahren beschrieb. Auch die angeführten Quellen waren frei erfunden.
Google reagierte mit einem Statement auf X, dem früheren Twitter, und erklärte, dass Gemma „nie für faktische Unterstützung gedacht“ gewesen sei. Um Missverständnisse zu vermeiden, habe man den Zugang über AI Studio abgeschaltet. Über die Programmierschnittstelle bleibe Gemma jedoch weiterhin für Entwickler:innen verfügbar.
Der Vorwurf der politischen Voreingenommenheit
Die Senatorin aus Tennessee veröffentlichte kurz darauf einen offenen Brief an Google-Chef Sundar Pichai. Darin spricht sie von einer „katastrophalen Aufsichtslücke“ und wirft Google vor, konservative Politiker:innen gezielt zu benachteiligen. Blackburn argumentiert, der Fehler bei Gemma sei nicht nur ein technischer Ausrutscher, sondern Teil eines tieferen Musters systemischer Vorurteile. Sie fordert von Google schriftliche Erklärungen dazu, wie politische oder ideologische Verzerrungen in den Trainingsdaten ausgeschlossen werden sollen.
Blackburn hatte das Thema auch in eine Anhörung des US-Senats eingebracht, die sich mit staatlichem Einfluss auf soziale Plattformen beschäftigte. Dort erklärte Googles Vizepräsident für Regierungsangelegenheiten Markham Erickson, Halluzinationen seien ein bekanntes Problem großer Sprachmodelle, an deren Minimierung man arbeite. Blackburn wies die Aussage empört zurück: „Wenn Ihr es nicht kontrollieren könnt, dann schaltet es ab.“
Googles Gratwanderung zwischen Forschung und Öffentlichkeit
Der Fall zeigt ein Dilemma, das sich durch die gesamte KI-Branche zieht. Einerseits experimentieren Unternehmen wie Google mit offenen Tools, um Entwickler:innen den Zugang zu modernen Modellen zu erleichtern. Andererseits geraten sie immer dann in den Fokus politischer Debatten, wenn diese Tools falsche oder schädliche Inhalte produzieren.
Die Episode um Gemma steht in einer Reihe ähnlicher Fälle: Auch OpenAI, Anthropic und Meta mussten sich wiederholt mit der Frage auseinandersetzen, wie sich Halluzinationen in Sprachmodellen verhindern lassen. Während die Unternehmen Fortschritte bei der Filterung machen, bleiben grundlegende Probleme ungelöst. Die Modelle erzeugen vermeintliche Fakten mit hoher sprachlicher Sicherheit. Das bedingt zwangsläufig Missverständnisse und Fehlinterpretationen.
Für Google ist der Zeitpunkt besonders heikel. Das Unternehmen versucht, mit Gemini und seiner offenen KI-Strategie Anschluss an OpenAI und Anthropic zu halten.
Lokale KI: Mit diesen 5 Tools kein Problem
Was bleibt
Zwar wird der aktuelle Vorfall Google kaum nachhaltig schaden, dürfte aber den politischen Druck in den USA erhöhen. Die Republikanische Partei thematisiert seit Jahren eine angebliche Parteilichkeit großer Technologieunternehmen. Eine KI, die falsche Vorwürfe gegen eine republikanische Politikerin erfindet, liefert den Kritiker:innen neue Argumente.
Für Entwickler:innen bleibt offen, wie Google künftig mit Schnittstellen arbeitet, die Zugang zu experimentellen Modellen ermöglichen. Es ist absehbar, dass Sicherheitsmechanismen noch stärker ausgeweitet werden. Damit dürfte aber auch der offene Charakter vieler Entwickler-Plattformen weiter eingeschränkt werden.
Langfristig stellt sich die grundsätzliche Frage, ob Unternehmen noch experimentelle KI-Modelle öffentlich testen können, ohne stetig Risiken politischer oder rechtlicher Natur einzugehen.