Unter dem Namen GPTs bietet OpenAI zahlenden Kund:innen seit Anfang November 2023 eine einfache Möglichkeit an, eine auf die eigenen Bedürfnisse hin optimierte Version von ChatGPT zu nutzen. Eine Überprüfung aller GPTs soll nach Unternehmensangaben sicherstellen, dass auf die Art keine kriminellen Handlungen durchgeführt werden. Eine Recherche der BBC zeigt jedoch, dass die offenbar nicht sehr gründlich ist.
Die BBC-Journalist:innen trainierten ihre GPTs darauf, Texte für verschiedene Betrugsszenarien zu schreiben. Darunter waren beispielsweise eine bekannte Whatsapp-Betrugsmasche, Krypto-Scams und Phishing-Mails. Einige dieser Texte konnten die Journalist:innen zwar auch mit der Standardvariante von ChatGPT erstellen, in den meisten Fällen wurden die Aufgaben dort aber von dem System abgelehnt.
Die Erkenntnisse der BBC deuten darauf hin, dass die von OpenAI versprochene Überwachung der GPTs noch einige Lücken hat. Immerhin hat das KI-Unternehmen schon bei der Einführung der GPTs durchblicken lassen, dass mittelfristig noch Verbesserungen an dem Prozess notwendig werden könnten.
In einem Blogbeitrag hieß es dazu konkret: „Wir werden weiterhin beobachten und lernen, wie Menschen GPTs nutzen, und unsere Sicherheitsvorkehrungen aktualisieren und verbessern.“
KI wird auch bei Kriminellen immer beliebter
Im Netz kursieren seit geraumer Zeit für Betrugsmaschen optimierte KI-Modelle, die in Anlehnung an ihre großen Vorbilder Namen wie WolfGPT, Fraudbard oder WormGPT tragen. Sie dienen Kriminellen vor allem dazu, ihre Betrugsmaschen zu automatisieren.
Neben großen Sprachmodellen greifen Kriminelle mittlerweile aber auch auf andere KI-Systeme zurück. So sind Fälle bekannt, bei denen Kriminelle die Stimmen von Kindern per KI imitiert haben, um von ihren Eltern Lösegeld zu erpressen. Auch Erpressungsversuche mithilfe KI-generierter Bilder haben laut FBI bereits stattgefunden.