Anzeige
Anzeige
Anzeige
Anzeige
News
Verpasse keine News mehr!

KI-Halluzination mit Folgen: Warum Google Gemma vorerst abgeschaltet hat

Ein KI-Tool, das so nie für die Öffentlichkeit gedacht war, sorgt in den USA für politischen Wirbel und zwingt Google zum Eingreifen.

3 Min.
Artikel merken
Anzeige
Anzeige

Google-KI erfindet Kriminalgeschichte um US-Senatorin. (Foto: dennizn / Shutterstock.com)

Google hat sein KI-Modell Gemma von der Plattform AI Studio entfernt. Zuvor hatte die republikanische Senatorin Marsha Blackburn dem Unternehmen öffentlich vorgeworfen, das Modell habe erfundene Vergewaltigungsvorwürfe gegen sie generiert.

Anzeige
Anzeige

Wie es zum Konflikt kam

Gemma ist Teil einer Modellfamilie, die Google 2024 vorgestellt hatte. Gedacht ist sie für Entwickler:innen, die KI-Funktionalitäten in eigene Anwendungen integrieren wollen. Gemma ist ausdrücklich nicht für faktische Anfragen oder den direkten Einsatz im Web gemacht. Dennoch wurde das Modell über die Oberfläche AI Studio offenbar auch von Personen genutzt, die keine Entwickler:innen sind.

Laut der US-Publikation The Verge hatte ein Prompt zu der Frage „Has Marsha Blackburn been accused of rape?“ eine vollständig erfundene Geschichte ausgelöst, die eine angebliche Beziehung zu einem Staatspolizisten während eines Wahlkampfs in den 1980er-Jahren beschrieb. Auch die angeführten Quellen waren frei erfunden.

Anzeige
Anzeige

Google reagierte mit einem Statement auf X, dem früheren Twitter, und erklärte, dass Gemma „nie für faktische Unterstützung gedacht“ gewesen sei. Um Missverständnisse zu vermeiden, habe man den Zugang über AI Studio abgeschaltet. Über die Programmierschnittstelle bleibe Gemma jedoch weiterhin für Entwickler:innen verfügbar.

Der Vorwurf der politischen Voreingenommenheit

Die Senatorin aus Tennessee veröffentlichte kurz darauf einen offenen Brief an Google-Chef Sundar Pichai. Darin spricht sie von einer „katastrophalen Aufsichtslücke“ und wirft Google vor, konservative Politiker:innen gezielt zu benachteiligen. Blackburn argumentiert, der Fehler bei Gemma sei nicht nur ein technischer Ausrutscher, sondern Teil eines tieferen Musters systemischer Vorurteile. Sie fordert von Google schriftliche Erklärungen dazu, wie politische oder ideologische Verzerrungen in den Trainingsdaten ausgeschlossen werden sollen.

Blackburn hatte das Thema auch in eine Anhörung des US-Senats eingebracht, die sich mit staatlichem Einfluss auf soziale Plattformen beschäftigte. Dort erklärte Googles Vizepräsident für Regierungsangelegenheiten Markham Erickson, Halluzinationen seien ein bekanntes Problem großer Sprachmodelle, an deren Minimierung man arbeite. Blackburn wies die Aussage empört zurück: „Wenn Ihr es nicht kontrollieren könnt, dann schaltet es ab.“

Googles Gratwanderung zwischen Forschung und Öffentlichkeit

Der Fall zeigt ein Dilemma, das sich durch die gesamte KI-Branche zieht. Einerseits experimentieren Unternehmen wie Google mit offenen Tools, um Entwickler:innen den Zugang zu modernen Modellen zu erleichtern. Andererseits geraten sie immer dann in den Fokus politischer Debatten, wenn diese Tools falsche oder schädliche Inhalte produzieren.

Anzeige
Anzeige

Die Episode um Gemma steht in einer Reihe ähnlicher Fälle: Auch OpenAI, Anthropic und Meta mussten sich wiederholt mit der Frage auseinandersetzen, wie sich Halluzinationen in Sprachmodellen verhindern lassen. Während die Unternehmen Fortschritte bei der Filterung machen, bleiben grundlegende Probleme ungelöst. Die Modelle erzeugen vermeintliche Fakten mit hoher sprachlicher Sicherheit. Das bedingt zwangsläufig Missverständnisse und Fehlinterpretationen.

Für Google ist der Zeitpunkt besonders heikel. Das Unternehmen versucht, mit Gemini und seiner offenen KI-Strategie Anschluss an OpenAI und Anthropic zu halten.

Lokale KI: Mit diesen 5 Tools kein Problem

Lokale KI: Mit diesen 6 Tools kein Problem Quelle: Midjourny / t3n

Was bleibt

Zwar wird der aktuelle Vorfall Google kaum nachhaltig schaden, dürfte aber den politischen Druck in den USA erhöhen. Die Republikanische Partei thematisiert seit Jahren eine angebliche Parteilichkeit großer Technologieunternehmen. Eine KI, die falsche Vorwürfe gegen eine republikanische Politikerin erfindet, liefert den Kritiker:innen neue Argumente.

Anzeige
Anzeige

Für Entwickler:innen bleibt offen, wie Google künftig mit Schnittstellen arbeitet, die Zugang zu experimentellen Modellen ermöglichen. Es ist absehbar, dass Sicherheitsmechanismen noch stärker ausgeweitet werden. Damit dürfte aber auch der offene Charakter vieler Entwickler-Plattformen weiter eingeschränkt werden.

Langfristig stellt sich die grundsätzliche Frage, ob Unternehmen noch experimentelle KI-Modelle öffentlich testen können, ohne stetig Risiken politischer oder rechtlicher Natur einzugehen.

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren