Neues OpenAI-Tool kann KI-generierte Bilder erkennen – aber nicht immer

OpenAI hat ein neues Tool vorgestellt. (Foto: PatrickAssale / Shutterstock)
OpenAI hat ein Tool vorgestellt, das KI-generierte Bilder identifizieren kann. Besonders effektiv arbeitet es bei Bildern, die vom firmeneigenen Bildgenerator Dall-E erstellt wurden.
Laut OpenAI erkennt das Tool 98 Prozent dieser Bilder korrekt. In weniger als 0,5 Prozent der Fälle werden Bilder, die nicht von der KI erzeugt wurden, fälschlicherweise als KI-generiert klassifiziert. Bei Bildern aus anderen KI-Modellen liegt die Fehlerquote höher: zwischen fünf und zehn Prozent.
Modifikationen machen Schwierigkeiten
Die Leistung des neuen Tools wird durch einfache Bildbearbeitungen wie Komprimierung, Zuschneiden oder Ändern der Sättigung kaum beeinträchtigt. Jedoch führen komplexere Modifikationen zu einer verschlechterten Erkennungsrate, schreibt das Unternehmen in einem Artikel.
Derzeit ist das Tool noch in der Testphase und wird von einer ausgewählten Gruppe an Forschern erprobt. Forschergruppen, die an einem Zugang interessiert sind, können sich über die Website von OpenAI dafür bewerben.
Zusätzlich plant OpenAI, Audio-Wasserzeichen in seine Voiceengine zu integrieren – eine KI zur Erzeugung von künstlichen Stimmen.
Es soll auch Wasserzeichen geben
OpenAI hat außerdem angekündigt, sich dem Steering Committee der Coalition for Content Provenance and Authenticity anzuschließen. Diese Koalition setzt sich dafür ein, dass KI-generierte Inhalte entsprechend gekennzeichnet werden.
Aus diesem Grund sind in den Metadaten von Bildern, die mit Dall-E erstellt wurden, Hinweise auf das KI-Tool zu finden. Ebenso sollen Videos, die mit Sora, OpenAIs Video-KI, erzeugt werden, Wasserzeichen bekommen, um die Herkunft der Inhalte klar zu kennzeichnen.