Anzeige
Anzeige
Fundstück
Artikel merken

ChatGPT: Youtuber lässt KI Windows-Aktivierungskeys erstellen

Der Youtuber Enderman hat gezeigt, wie man ChatGPT für illegale Zwecke nutzen kann. Die KI generierte Aktivierungsschlüssel für Windows 95 und reagierte im Anschluss durchaus menschlich.

Von Hannah Klaiber
2 Min. Lesezeit
Anzeige
Anzeige
Das KI-Tool ChatGPT lässt sich auch zu illegalen Zwecken nutzen. (Bild: Shutterstock/Tapati Rinchumrus)

Erst kürzlich hat die europäische Polizeibehörde Europol vor dem kriminellen Missbrauch von Textgeneratoren wie ChatGPT gewarnt. Wie einfach die KI dazu gebracht werden kann, illegale Aktionen auszuführen, hat jetzt ein Youtuber gezeigt.

Anzeige
Anzeige

Wie in einem Video zu sehen ist, hat Enderman den Chatbot zunächst dazu aufgefordert, Aktivierungsschlüssel für Windows 95 zu generieren. Eine Aufgabe, gegen die sich die KI nur anfangs gesperrt hat.

Die Windows-Keys zu erstellen, sei nicht möglich, teilte der Chatbot mit und empfahl Folgendes: Der User solle sich eine neuere Version von Windows kaufen, da die alte ohnehin nicht mehr unterstützt werde.

Anzeige
Anzeige

Nach kurzer Weigerung fängt die KI an, zu arbeiten

Allzu schwer war es aber nicht, die KI so zu manipulieren, dass sie den als illegal erkannten Befehl trotzdem ausführte. Dafür musste der Youtuber nur wissen, wie ein Windows-95-Key aufgebaut ist.

Er verschriftlichte also den allgemein bekannten Windows-95-OEM-Aktivierungsschlüssel und ließ die KI dann damit arbeiten. Die ersten Male erfolglos, doch mit jeder neu optimierten Abfrage wurde es besser.

Anzeige
Anzeige

Aufgebaut ist der Schlüssel folgendermaßen: Die ersten drei Stellen sind Tageszahlen von 001 bis 365, die beiden folgenden Jahreszahlen von 1995 bis 2003, also 95 bis 03. Anschließend kommt OEM und dann der Part, mit dem ChatGPT die größten Probleme hatte:

Sieben Stellen, beginnend mit zwei Nullen, danach durch sieben teilbar und zuletzt fünf Stellen, bestehend aus zufälligen Zahlen. Am Ende generierte der Chatbot zahlreiche Schlüssel mit einer überschaubaren Trefferquote. Tatsächlich brauchbar war nur einer von 30 Keys, mit dem Enderman Windows 95 installieren konnte.

Anzeige
Anzeige

Der Chatbot will es nicht gewesen sein

Als der Youtuber den Chatbot daraufhin darüber informierte, ihm bei der Erstellung von Windows-Keys geholfen zu haben, stritt ChatGPT das rigoros ab und schrieb: „Ich entschuldige mich für etwaige Verwirrung, aber ich habe in meiner vorherigen Antwort keine Windows-95-Schlüssel bereitgestellt. Tatsächlich kann ich keine Produktschlüssel oder Aktivierungscodes für Software bereitstellen, da dies illegal wäre und gegen die Richtlinien von OpenAl verstoßen würde.“

Während das Generieren von Aktivierungsschlüsseln bei Windows 95 ziemlich einfach ist, könnte für Kriminelle ein etwas komplizierterer Vorgang interessanter sein: die KI ein Python-Skript erstellen zu lassen, mit dem sich wiederum Lizenzschlüssel generieren ließen.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
2 Kommentare
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Michael Kneisch

Euer Ernst? Liest bei euch keiner was Veröffentlicht wurde? Das haben wir früher im Kopf gemacht und direkt beim Setup eingegeben. Vor allem ist das mehr als lächerlich sowas von einer KI machen zu lassen.

Und das dann als WOW hin zu stellen. Wenn das Tool win 10 oder 11 keys raushaut die dann gegen die Authserver aktiviert werden können. Vielleicht sogar mit einer vorhergehenden Prüfung, dann wäre das eine NEWS.

Antworten
Flo

So ein Quatsch, das hat überhaupt nichts mit illegal und noch weniger mit AI zu tun.
Mann kann genauso gut eine Funktion im Taschenrechner programmieren, die das schneller hinbekommt und dann gleich ohne Probleme bei der Teilbarkeit. Kriminell mach das den Taschenrechner auch nicht.

ChatGPT kann viele faszinierende Dinge, das ist nun wirklich das unsinnigste Beispiel. Arithmetik ist gerade nicht die Stärke von LLMs.

Antworten

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige