ChatGPT: Youtuber lässt KI Windows-Aktivierungskeys erstellen

Erst kürzlich hat die europäische Polizeibehörde Europol vor dem kriminellen Missbrauch von Textgeneratoren wie ChatGPT gewarnt. Wie einfach die KI dazu gebracht werden kann, illegale Aktionen auszuführen, hat jetzt ein Youtuber gezeigt.
Wie in einem Video zu sehen ist, hat Enderman den Chatbot zunächst dazu aufgefordert, Aktivierungsschlüssel für Windows 95 zu generieren. Eine Aufgabe, gegen die sich die KI nur anfangs gesperrt hat.
Die Windows-Keys zu erstellen, sei nicht möglich, teilte der Chatbot mit und empfahl Folgendes: Der User solle sich eine neuere Version von Windows kaufen, da die alte ohnehin nicht mehr unterstützt werde.
Nach kurzer Weigerung fängt die KI an, zu arbeiten
Allzu schwer war es aber nicht, die KI so zu manipulieren, dass sie den als illegal erkannten Befehl trotzdem ausführte. Dafür musste der Youtuber nur wissen, wie ein Windows-95-Key aufgebaut ist.
Er verschriftlichte also den allgemein bekannten Windows-95-OEM-Aktivierungsschlüssel und ließ die KI dann damit arbeiten. Die ersten Male erfolglos, doch mit jeder neu optimierten Abfrage wurde es besser.
Aufgebaut ist der Schlüssel folgendermaßen: Die ersten drei Stellen sind Tageszahlen von 001 bis 365, die beiden folgenden Jahreszahlen von 1995 bis 2003, also 95 bis 03. Anschließend kommt OEM und dann der Part, mit dem ChatGPT die größten Probleme hatte:
Sieben Stellen, beginnend mit zwei Nullen, danach durch sieben teilbar und zuletzt fünf Stellen, bestehend aus zufälligen Zahlen. Am Ende generierte der Chatbot zahlreiche Schlüssel mit einer überschaubaren Trefferquote. Tatsächlich brauchbar war nur einer von 30 Keys, mit dem Enderman Windows 95 installieren konnte.
Der Chatbot will es nicht gewesen sein
Als der Youtuber den Chatbot daraufhin darüber informierte, ihm bei der Erstellung von Windows-Keys geholfen zu haben, stritt ChatGPT das rigoros ab und schrieb: „Ich entschuldige mich für etwaige Verwirrung, aber ich habe in meiner vorherigen Antwort keine Windows-95-Schlüssel bereitgestellt. Tatsächlich kann ich keine Produktschlüssel oder Aktivierungscodes für Software bereitstellen, da dies illegal wäre und gegen die Richtlinien von OpenAl verstoßen würde.“
Während das Generieren von Aktivierungsschlüsseln bei Windows 95 ziemlich einfach ist, könnte für Kriminelle ein etwas komplizierterer Vorgang interessanter sein: die KI ein Python-Skript erstellen zu lassen, mit dem sich wiederum Lizenzschlüssel generieren ließen.
Euer Ernst? Liest bei euch keiner was Veröffentlicht wurde? Das haben wir früher im Kopf gemacht und direkt beim Setup eingegeben. Vor allem ist das mehr als lächerlich sowas von einer KI machen zu lassen.
Und das dann als WOW hin zu stellen. Wenn das Tool win 10 oder 11 keys raushaut die dann gegen die Authserver aktiviert werden können. Vielleicht sogar mit einer vorhergehenden Prüfung, dann wäre das eine NEWS.
So ein Quatsch, das hat überhaupt nichts mit illegal und noch weniger mit AI zu tun.
Mann kann genauso gut eine Funktion im Taschenrechner programmieren, die das schneller hinbekommt und dann gleich ohne Probleme bei der Teilbarkeit. Kriminell mach das den Taschenrechner auch nicht.
ChatGPT kann viele faszinierende Dinge, das ist nun wirklich das unsinnigste Beispiel. Arithmetik ist gerade nicht die Stärke von LLMs.