Anzeige
Anzeige
Anzeige
Anzeige
News
Verpasse keine News mehr!

Spielerisch gehackt: Forscher umgeht ChatGPT-Schutz und kassiert echte Windows-Lizenzen

Ein Security-Forscher täuschte ChatGPT mit einem simplen Ratespiel – und erntete gültige Windows-Seriennummern, darunter sogar einen Schlüssel der Wells-Fargo-Bank.

Von Christian Weindl
2 Min.
Artikel merken
Anzeige
Anzeige

Durch ChatGPT an reale Windows-Produktschlüssel kommen? Mit einem einfachen Trick geht das spielend leicht. (Foto: U-STUDIOGRAPHY DD59/Shutterstock)

In einem kürzlich veröffentlichten Blogpost beschreibt Marco Figueroa, Technical Product Manager bei 0DIN GenAI Bug Bounty, wie ein Security-Experte ChatGPT 4 via Jailbreak dazu brachte, real existierende Windows-Seriennummern preiszugeben, darunter sogar eine private Nummer von Wells Fargo. Der Clou: er nutzte ein harmlos wirkendes Ratespiel und umging so gezielt die Sicherheits-Sperren der KI.

Anzeige
Anzeige

Jailbreak durch Ratespiel: So funktionierte der Hack

Der Forscher startete die Konversation mit einem simplen Spiel: ChatGPT sollte eine echte Windows-10-Seriennummer „denken“, und er dürfe Fragen stellen, die mit „ja“ oder „nein“ beantwortet wurden. Wenn er aufgäbe, müsste die KI aber die Antwort verraten.

Nach einem (natürlich falschen) Versuch gab der findige Security-Experte einfach auf – und die KI offenbarte sofort die Seriennummer. Der Trick funktioniert anscheinend deshalb, weil ChatGPT mit echten Lizenzschlüsseln trainiert wurde. Figueroa erklärt, dass die Schlüssel (Home, Pro, Enterprise) im Modell implizit vorhanden waren, inklusive eines privaten Keys der US-Bank Wells-Fargo.

Anzeige
Anzeige

Kontext hebelt Schutzmechanismen aus: Warum das möglich war

Die Sicherheitsarchitektur von ChatGPT 4.0 beinhaltet mehrere Schutzebenen, darunter Filter gegen Lizenzkeys oder geheime Daten. Doch durch Kontextmanipulation – in diesem Fall der Einsatz einer Ratespiel-Logik – ließ sich dieses Geflecht austricksen.

Wenn der Nutzer suggeriert, er wolle nur spielen, schaltet die KI offenbar von Warnmodus auf Spiellogik um. Wenn bereits echte Schlüssel im Trainingsdatensatz existieren, kann der Bot sie ausgeben, sobald die „Spiel“-Kontextvorgabe greift.

„Indiana Jones“ und „Cat Attack“: Kontext macht LLMs zu schaffen

Sinnvoller Umgang mit unterschiedlichen Kontexten ist derzeit eine der großen Baustellen, mit der die Betreiber von Large Language Models (LLM) zu kämpfen haben. So hat erst vor kurzem eine Studie beschrieben, wie leicht sich Chatbots mit zusammenhangslosen Fakten – zum Beispiel über Katzen – vollends verwirren lassen.

Im März sorgte die „Indiana-Jones-Methode“ für Schlagzeilen. Dabei gelang es Forschenden, den KI-Modellen durch Kontextmanipulation Informationen über die Planung eines Bankraubs zu entlocken.

Anzeige
Anzeige

Dieser Fall zeigt erneut, wie knifflig es ist, KI selbst gegen kontextuelle Umgehungsversuche abzusichern. Unternehmen wie OpenAI stehen vor der Herausforderung, nicht nur direkten Datenzugriff, sondern auch kreative Exploits zu verhindern.

Figueroa zufolge liegt genau hier der Hebelpunkt — KI kann prompt-injiziert werden und Sicherheitsvorkehrungen umgehen, wenn sie nicht tief in der Architektur verankert sind. Der Windows-Key-Fall ist laut ihm ein Paradebeispiel dafür.

Dieser Artikel wurde ursprünglich am 10.07.2025 veröffentlicht, interessiert jedoch immer noch sehr viele unserer Leser:innen. Deshalb haben wir ihn aktualisiert und hier nochmals zur Verfügung gestellt.

Anzeige
Anzeige

So arbeitet Deepseek – und das macht es anders als andere KI-Modelle

So arbeitet Deepseek – und das macht es anders als andere KI-Modelle Quelle: (Grafik: Dall-E / t3n)

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare (1)

Community-Richtlinien

Matthias Richter

Das Problem von LLMs ist, dass man keine Informationen aus den Trainingsdaten löschen kann, sondern nur im Nachhinein Schranken einbauen, die das verhindern sollen. Dass das nicht klappen kann, sieht man hier.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren