Sam Altman macht Sicherheit zur Chefsache: Wie OpenAI seine KI-Geheimnisse vor Spionen schützt

Sam Altman persönlich leitet bei OpenAI das Sicherheitsteam – und das hat die Maßnahmen in den vergangen Monaten stark erhöht. (Foto: picture alliance / ZUMAPRESS.com | Rodrigo Reyes Marin)
Dass Deepseek die Technikwelt mit einem effizienten und kostengünstigen KI-Modell überrascht und OpenAI überrumpelt hat, ist die eine Geschichte. Beim ChatGPT-Unternehmen aus Kalifornien sieht man die Sache etwas. Dort ist man der Auffassung, das chinesische Startup habe die eigenen Modelle mithilfe einer “Destillation” genannten Technik kopiert. Wer in diesem Streit recht hat, ist von außen natürlich schwer zu sagen.
Deepseek schweigt bislang zu den Vorwürfen. OpenAI fährt derweil die Sicherheitsmaßnahmen hoch, wie die Financial Times berichtet. Mit einem speziellen Vorfall habe das nichts zu tun. Stattdessen wolle das Unternnehmen die Industrie anführen. Und da müssen die Geheimnisse eben gut geschützt werden.
So schützt OpenAI Parameter
Bei OpenAI gibt es dafür ein eigenes Sicherheitsteam. Und das ist Chefsache, denn geleitet wird es von CEO Sam Altman. Unter seiner Führung sollen Personal und Praktiken in der Vergangenheit extrem ausgebaut worden sein. Das geht auf Informationen von Personen zurück, die dem Sicherheitsteam nahestehen sollen. So habe OpenAI laut Bericht den Zugriff zu vertraulichen Informationen in seinen Büros in San Francisco stark eingeschränkt. Dazu zählen etwa in der Entwicklung befindliche Algorithmen.
Als Beispiel nennt die Financial Times die Entwicklung des Modells o1 im vergangenen Jahr. Wer daran mitgearbeitet hatte, sollte sicherstellen, dass andere Mitarbeiter:innen ebenfalls zum Team gehörten, bevor Details auf öffentlichen Büroflächen diskutiert wurden. Für das OpenAI-Personal war das offenbar nicht immer einfach. Einem Mitarbeiter zufolge wurden Kolleg:innen nur in Dinge eingewiesen – in andere allerdings nicht.
Dieses Vorgehen allein ist noch nichts Besonderes. Andere große Unternehmen wie etwa Apple sollen ebenfalls darauf achten, dass Mitarbeiter:innen sich bei der Entwicklung von Neuheiten auf ihren Bereich konzentrieren und nicht erfahren, was in deren Teams passiert.
Um die sogenannten Modellgewichte schützen, darf bei OpenAI außerdem nichts ohne Genehmigung mit dem Internet verbunden werden. Bei den Modellgewichten handelt es sich um Parameter, die bestimmen, wie ein Modell auf Anfragen reagiert.
Außerdem hat OpenAI die Sicherheit der Datenzentren erhöht. Dazu gehört die schärfere Überprüfung von Mitarbeiter:innen und potenziellen Neuzugängen, um Spionageangriffen vorzubeugen.
Neue Experten sollen die Sicherheit erhöhen
Zusätzlich hat das Unternehmen personell aufgerüstet. Dazu gehört die Verpflichtung des neuen Chief Information Security Officers, Dane Stuckey, der zuvor in der selben Position bei Palantir gearbeitet hatte. Dem Bericht zufolge arbeitet er Seite an Seite mit Matt Knight, dem Vice President of Security Products. Knight soll wiederum Möglichkeiten gefunden haben, OpenAIs Modelle zur Abwehr von Cyberattacken zu nutzen.
Schlussendlich gehört der ehemalige General der US-Armee, Paul Nakasone mittlerweile zum Aufsichtsrat. Er soll dabei helfen, Defensivmaßnahmen gegen Sicherheitsattacken zu überblicken.
So arbeitet Deepseek – und das macht es anders als andere KI-Modelle