Wasserzeichen-Tool für ChatGPT: Wie es KI-generierte Texte entlarven soll – und warum OpenAI es nicht veröffentlicht
KI-Texte zu erkennen, ist oftmals schwierig. Gerade Modelle wie OpenAIs GPT-4o können menschliche Schreibweisen gut reproduzieren. Dementsprechend sind KI-generierte Texte auch ein großes Problem an Universitäten und Schulen. Denn wie sollen die Lehrer einwandfrei erkennen, dass die Schüler:innen die Texte selbst geschrieben haben oder ChatGPT genutzt wurde?
Ein Wasserzeichen für ChatGPT
Genau zu diesem Zweck wurde ein Wasserzeichen-Tool für ChatGPT entwickelt, wie Wall Street Journal berichtet. Der Bericht beruft sich dabei auf interne Dokumente von OpenAI und Aussagen von Mitarbeiter:innen. Das Tool würde – sobald es veröffentlicht wird – die Wortwahl von ChatGPT leicht verändern. Diese Änderungen würden ein bestimmtes Muster hinterlassen, dass dann von dem Wasserzeichen-Tool erkannt werden könnte.
Dabei würde der Output von ChatGPT nicht unter der Änderung leiden. Dementsprechend bekämen Nutzer:innen also weiterhin die gewohnte Qualität geboten, allerdings ließen sich die Texte im Nachgang von Dritten als KI-Texte entlarven. Dabei soll das Tool eine Trefferquote von 99,9 Prozent aufweisen und sogar erkennen, ob nur Teile des Textes per KI erstellt wurden.
Warum veröffentlicht OpenAI das Tool nicht?
Laut Aussagen von OpenAI-Mitarbeiter:innen müsse man intern nur auf einen Knopf drücken und schon wäre das Wasserzeichen-Tool für alle Nutzer:innen verfügbar. Tatsächlich soll das Tool schon seit etwa einem Jahr für die Veröffentlichung bereit sein. Allerdings gibt es im KI-Unternehmen anhaltende Diskussionen darüber, ob das Feature wirklich ausgerollt werden sollte.
In einem Blog-Post bestätigte OpenAI das Wasserzeichen-Tool zunächst und lieferte eine Begründung, warum das Tool bislang nicht veröffentlicht wurde. Demnach wäre ChatGPT durch die neue Wortwahl des Wasserzeichen-Tools leichter angreifbar. Dritte könnten die KI manipulieren, um Sicherheitsmaßnahmen zu umgehen. Bis diese Probleme behoben sind, müsse die Veröffentlichung aufgeschoben werden.
OpenAI-Mitarbeiter:innen nennen aber einen anderen Grund, warum das Wasserzeichen-Tool bisher nicht das Licht der Welt erblickt hatte. So hätte das KI-Unternehmen Angst davor, zahlende Nutzer:innen zu vergraulen, die ChatGPT für die Erstellung von Texten nutzen. Laut einer Umfrage hätten bereits 30 Prozent der Nutzer:innen angekündigt, dass sie ChatGPT weniger nutzen würden, wenn das Wasserzeichen-Tool veröffentlicht wird. 69 Prozent glauben sogar, dass das Tool dazu führen würde, dass ihre Texte fälschlicherweise als KI-generiert abgestempelt werden könnten.