
ChatGPT: Der KI-Chatbot erfreut sich auch bei Kriminellen schon einiger Beliebtheit. (Foto: Shutterstock/Supatman)
Kriminelle gelten als besonders schnell, wenn es darum geht, neue Technologien für ihre Machenschaften zu missbrauchen. Bei dem seit November 2022 frei zugänglichen KI-Chatbot ChatGPT ist das nicht anders.
ChatGPT für kriminelle Machenschaften missbraucht
Das noch in den Kinderschuhen steckende, aber spätestens seit dem Upgrade des zugrundeliegenden Sprachmodells GPT auf Version vier noch mächtigere System erfreut sich bei Kriminellen einer großen Beliebtheit. Das geht aus einem neuen Bericht von Europol hervor.
Demnach sei ChatGPT schon im Einsatz, etwa um Anweisungen zum Bau einer Rohrbombe oder zum Herstellen von Crack zu geben. Dazu seien die eingebauten Filtermechanismen des Chatbots überwunden worden. Normalerweise verhindern diese Filter, dass ChatGPT Auskunft zu solchen Themen gibt.
Anleitungen für Verbrechen und schnellere Recherche
Europol warnt, dass ChatGPT in der Lage sei, Schritt-für-Schritt-Anleitungen zum Begehen bestimmter Straftaten zu liefern. Zwar würden die meisten Informationen dazu ohnehin frei im Netz verfügbar sein. ChatGPT könne aber den Rechercheprozess erheblich beschleunigen, so Europol.
„Dadurch lässt sich ChatGPT verwenden, um sich ohne Vorkenntnisse über eine große Anzahl potenzieller Kriminalitätsbereiche zu informieren, die von Einbrüchen bis hin zu Terrorismus, Cyberkriminalität und sexuellem Missbrauch von Kindern reichen“, zitiert The Register aus dem Europol-Bericht.
ChatGPT: Betrug, Phishing, Propaganda
Darüber hinaus könne der Chatbot auch dazu verwendet werden, um Betrug oder Phishing zu erleichtern sowie Propaganda und Desinformationen zu verbreiten. Beobachter:innen hatten schon zuvor zu bedenken gegeben, dass etwa die Qualität von Phishing-Mail-Anschreiben und dadurch deren Erfolgsrate durch ChatGPT gesteigert werden könne.
Auf ähnliche Weise würden die Fähigkeiten des Chatbots die Hürden für kriminelle Programmierer:innen beim Erstellen von Malware senken. Fähige Programmier:innen wiederum könnten bestimmte Vorgehensweisen automatisieren.
Europol zufolge könne zudem der Roll-out von Features und Services für KI-Chatbots, etwa die Möglichkeit, Deepfakes zu erstellen oder Zugriff auf Sensoren zu bekommen, die Durchschlagskraft krimineller Machenschaften noch erhöhen.
Filterlos: Spezielle Crime-Chatbots bald im Darknet?
Nicht ausgeschlossen sei zudem, dass eigens mit krimineller Absicht trainierte Chatbots ohne Filtereinschränkungen im Darknet auftauchen. Und: Die KI-Chatbots selbst bieten eine Angriffsfläche, wenn Kriminelle an den dort gespeicherten sensiblen Daten der Nutzer:innen interessiert seien.
Die ohnehin in Sachen IT-Fertigkeiten entwicklungsfähigen Behörden – auch in Deutschland – dürfte das in den kommenden Monaten und Jahren vor weitere große Herausforderungen stellen. Ein wenig Hoffnung gibt derzeit noch die Fehleranfälligkeit des Chatbots – Stichwort: Halluzination.
Ich vermute, es stimmt, dass Kriminelle ChatGPT nutzen. Aber dieser Artikel ist äußerst irreführend. Der Europol-Bericht erwähnt vielmehr, dass Europol selbst kriminelle Nutzungsmöglichkeiten ausprobiert hat. Wo wird denn erwähnt, dass Europol herausgefunden hat, dass Kriminelle ChatGPT nutzen geschweige denn lieben? Ich kann dazu nichts finden. Und wie auch hätten sie das herausfinden können? Würde ChatGPT die Chatverläufe an Europol weitergeben? Das wäre dann wohl eher eine Schlagzeile wert.