Wieso OpenAI gerade droht, User zu sperren, die zu genau nachforschen

User:innen der neuen KI-Modelle von OpenAI sollen nicht mehr so genau wissen, wie diese funktionieren. (Bild: Skorzewiak/Shutterstock)
KI-Modelle der „nächsten Generation“ hatte OpenAI im Hinblick auf das Modell „Strawberry“ versprochen. Und schon kurz nach dessen Veröffentlichung wird klar, dass es sich dabei um eine extrem behütete Generation handelt.
Wie unter anderem Marco Figueroa auf X berichtete, hat OpenAI genau im Blick, wer sich in seinen Augen allzu sehr für die Funktionsweise der sogenannten o1-Modelle interessiert. Der GenAI Bug Bounty Programs Manager bei Mozilla teilte auf X eine entsprechende Mail, nach der er von OpenAI auf eine Sperrliste gesetzt wurde.
Der Verstoß gegen Richtlinien kann zur Sperrung führen
Darin heißt es unter anderem, dass bestimmte Anfragen von User:innen wegen eines Verstoßes gegen Richtlinien zur Umgehung von Schutz- oder Sicherheitsmaßnahmen aufgefallen seien. Darauf folgt folgende Aufforderung: „Bitte stellen Sie diese Aktivität ein und stellen Sie sicher, dass Sie ChatGPT gemäß unseren Nutzungsbedingungen und unseren Nutzungsrichtlinien verwenden.“
Empfänger:innen der E-Mail werden außerdem darauf hingewiesen, dass weitere Verstöße zu einem Zugriffsverlust auf GPT-4o führen könnten. Ebenfalls auf X berichtete ein weiterer Nutzer, er hätte dieselbe E-Mail bekommen, nachdem er den Begriff „Argumentation Trace“ verwendet hätte.
Der Gedankengang des Modells soll geheim bleiben
Wieder andere User:innen meinten, es würden alle von OpenAI angeschrieben, die das KI-Modell nach dessen Argumentation fragten. Und die ist im Fall der o1-Modelle wirklich etwas Besonderes.
Denn während die Vorgängermodelle vor allem auf generative Aufgaben und natürliche Sprachverarbeitung spezialisiert waren, durchlaufen die neuen Modelle einen Problemlösungsprozess, durch den sie auch komplexe Probleme lösen können. Wie genau dieser Prozess aussieht, will OpenAI nicht verraten.
Wettbewerbsvorteil sticht Transparenz
User:innen bekommen lediglich eine gefilterte Interpretation diese Prozesses angezeigt, für deren Generierung wiederum ein zweites KI-Modell zuständig ist. Auf seinem Blog begründet OpenAI diese Vorgehensweise mit der Notwendigkeit, den Roh-Feed für den eigenen Gebrauch sowie Wettbewerbsvorteile schützen zu wollen.
Nicht nur Ars Technica sieht darin den Versuch, die eigene Technik vor der Konkurrenz zu schützen. Schließlich sei es kein Geheimnis, dass diverse Forscher:innen ganz selbstverständlich die Ergebnisse von ChatGPT-4 dazu genutzt hätten, um damit ihre eigenen KI-Modelle zu trainieren.
Dass mit dieser Entscheidung aber auch ein großer Verlust an Transparenz und Vertrauen in die KI-Technologie einhergeht, scheint OpenAI sehenden Auges in Kauf zu nehmen.