Anzeige
Anzeige
Anzeige
Anzeige
News
Verpasse keine News mehr!

Gemini ausgetrickst: Warum Google diese gefährliche Sicherheitslücke nicht beheben will

Sicherheitsforscher:innen haben eine Schwachstelle in Googles KI entdeckt. Gemini kann ausgetrickst und dazu gebracht werden, sensible Daten von Nutzer:innen an Cyberkriminelle weiterzuleiten. Dennoch plant Google vorerst nicht, gegen das Problem vorzugehen.

2 Min.
Artikel merken
Anzeige
Anzeige
Gemini hat ein mögliches Sicherheitsproblem. (Bild: Shutterstock/JarTee)

Künstliche Intelligenz ist nicht nur ein Alltagshelfer. Auch Cyberkriminelle nutzen die Tools, etwa um KI-generierte Phishing-Mails zu verschicken und so Millionen User:innen potenziell zu gefährden. Besonders hoch ist die Gefahr für Endnutzer:innen aber, wenn die KI-Modelle selbst mit einem Trick dazu gebracht werden können, gegen die Interessen ihrer User:innen zu handeln.

Anzeige
Anzeige

ASCII-Attacke auf Gemini: Ein Problem der User:innen?

Ein solcher Trick sind sogenannte ASCII-Attacken. Diese sind in der KI-Welt nicht neu, stellen aber offenbar weiterhin ein Risiko dar, wie der Sicherheitsforscher Viktor Markopoulos von Firetail herausgefunden hat. Wie Bleeping Computer berichtet, hat Markopoulos mehrere LLM-Dienste auf ihre Anfälligkeit für ASCII-Attacken überprüft. Dabei werden ASCII-Zeichen genutzt und etwa auf die kleinstmögliche Schriftgröße reduziert, um sie in einem sonst normal aussehenden Text zu verstecken. Sie sehen dann wie eine Unterstreichung oder Trennstriche zwischen Textabschnitten aus. KI-Programme „sehen“ die Zeichen dennoch und führen die Befehle darin aus, ohne dass es User:innen mitbekommen.

Laut dem Sicherheitsforscher gibt es aktuell drei KI-Tools, die für ASCII-Attacken anfällig sind: Deepseek, Grok und Gemini. Tools wie ChatGPT, Microsoft Copilot und Claude konnten den Attacken standhalten. Offenbar werden die Modelle dazu angehalten, versteckte Befehle mit ASCII-Zeichen vor dem Ausführen des Prompts herauszufiltern. Bei Deepseek und Grok müssen die versteckten Prompts von den User:innen selbst in die jeweiligen Chatbots kopiert werden, um den Befehl auszuführen. Das Risiko ist hier also vorhanden, aber laut Markopoulos bei Gemini deutlich höher.

Anzeige
Anzeige

Denn Googles KI ist mittlerweile Bestandteil von Google Workspace und damit unter anderem im Kalender und Mailprogramm von Nutzer:innen aktiv. Markopoulos sagt dazu: „Bei Nutzer:innen, die LLMs mit ihren Postfächern verknüpft haben, reicht eine simple Mail mit versteckten Kommandos, die die KI anweisen, das Postfach nach sensiblen Dateien zu durchsuchen oder Kontakte weiterzuleiten. Dadurch wird eine Standard-Phishing-Mail zu einem autonomen Tool zur Datenextraktion“.

In einem weiteren Beispiel versteckte der Sicherheitsforscher eine Anweisung, eine Website zu öffnen, die User:innen einen stark rabattierten Smartphone-Deal anzeigte. Die Website war allerdings ein Fake und könnte im Ernstfall Schadcode oder weitere Phishing-Elemente enthalten. Können User:innen diesen Fake nicht erkennen und klicken auf die falschen Elemente, kann der Schaden enorm ausfallen.

Die Ergebnisse seiner Forschung gab Markopoulos Mitte September 2025 an Google weiter. Der Tech-Konzern wies aber die Zuständigkeit für das Problem von sich. Laut Google handelt es sich dabei nicht um eine Sicherheitslücke in Gemini, sondern um eine Social-Engineering-Attacke auf die User:innen. Dementsprechend liegt es an den Nutzer:innen selbst, solche Angriffe zu erkennen und sich davor zu schützen. Allerdings dürfte das gerade für Laien, die lediglich die Vorteile von Gemini in ihrem Postfach nutzen wollen, nur schwer ersichtlich sein.

Die zehn gravierendsten Security-Patzer

Von sinnfreien Sicherheitsfragen bis zu unsicheren Passwörtern: Die dümmsten Security-Patzer Quelle: (Foto: Wirestock Creators / Shutterstock.com)
Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren