Anzeige
Anzeige
Anzeige
Anzeige
News
Verpasse keine News mehr!

Sam Altman macht Sicherheit zur Chefsache: Wie OpenAI seine KI-Geheimnisse vor Spionen schützt

Bei OpenAI ist Sicherheit Chefsache. CEO Sam Altman persönlich leitet das Sicherheitsteam, das in den vergangenen Monaten die Maßnahmen erweitert hat. Dabei geht es um Spionage – und auch um Deepseek.

2 Min.
Artikel merken
Anzeige
Anzeige

Sam Altman persönlich leitet bei OpenAI das Sicherheitsteam – und das hat die Maßnahmen in den vergangen Monaten stark erhöht. (Foto: picture alliance / ZUMAPRESS.com | Rodrigo Reyes Marin)

Dass Deepseek die Technikwelt mit einem effizienten und kostengünstigen KI-Modell überrascht und OpenAI überrumpelt hat, ist die eine Geschichte. Beim ChatGPT-Unternehmen aus Kalifornien sieht man die Sache etwas. Dort ist man der Auffassung, das chinesische Startup habe die eigenen Modelle mithilfe einer “Destillation” genannten Technik kopiert. Wer in diesem Streit recht hat, ist von außen natürlich schwer zu sagen.

Anzeige
Anzeige

Deepseek schweigt bislang zu den Vorwürfen. OpenAI fährt derweil die Sicherheitsmaßnahmen hoch, wie die Financial Times berichtet. Mit einem speziellen Vorfall habe das nichts zu tun. Stattdessen wolle das Unternnehmen die Industrie anführen. Und da müssen die Geheimnisse eben gut geschützt werden.

So schützt OpenAI Parameter

Bei OpenAI gibt es dafür ein eigenes Sicherheitsteam. Und das ist Chefsache, denn geleitet wird es von CEO Sam Altman. Unter seiner Führung sollen Personal und Praktiken in der Vergangenheit extrem ausgebaut worden sein. Das geht auf Informationen von Personen zurück, die dem Sicherheitsteam nahestehen sollen. So habe OpenAI laut Bericht den Zugriff zu vertraulichen Informationen in seinen Büros in San Francisco stark eingeschränkt. Dazu zählen etwa in der Entwicklung befindliche Algorithmen.

Anzeige
Anzeige

Als Beispiel nennt die Financial Times die Entwicklung des Modells o1 im vergangenen Jahr. Wer daran mitgearbeitet hatte, sollte sicherstellen, dass andere Mitarbeiter:innen ebenfalls zum Team gehörten, bevor Details auf öffentlichen Büroflächen diskutiert wurden. Für das OpenAI-Personal war das offenbar nicht immer einfach. Einem Mitarbeiter zufolge wurden Kolleg:innen nur in Dinge eingewiesen – in andere allerdings nicht.

Dieses Vorgehen allein ist noch nichts Besonderes. Andere große Unternehmen wie etwa Apple sollen ebenfalls darauf achten, dass Mitarbeiter:innen sich bei der Entwicklung von Neuheiten auf ihren Bereich konzentrieren und nicht erfahren, was in deren Teams passiert.

Um die sogenannten Modellgewichte schützen, darf bei OpenAI außerdem nichts ohne Genehmigung mit dem Internet verbunden werden. Bei den Modellgewichten handelt es sich um Parameter, die bestimmen, wie ein Modell auf Anfragen reagiert.

Außerdem hat OpenAI die Sicherheit der Datenzentren erhöht. Dazu gehört die schärfere Überprüfung von Mitarbeiter:innen und potenziellen Neuzugängen, um Spionageangriffen vorzubeugen.

Anzeige
Anzeige

Neue Experten sollen die Sicherheit erhöhen

Zusätzlich hat das Unternehmen personell aufgerüstet. Dazu gehört die Verpflichtung des neuen Chief Information Security Officers, Dane Stuckey, der zuvor in der selben Position bei Palantir gearbeitet hatte. Dem Bericht zufolge arbeitet er Seite an Seite mit Matt Knight, dem Vice President of Security Products. Knight soll wiederum Möglichkeiten gefunden haben, OpenAIs Modelle zur Abwehr von Cyberattacken zu nutzen.

Schlussendlich gehört der ehemalige General der US-Armee, Paul Nakasone mittlerweile zum Aufsichtsrat. Er soll dabei helfen, Defensivmaßnahmen gegen Sicherheitsattacken zu überblicken.

So arbeitet Deepseek – und das macht es anders als andere KI-Modelle

So arbeitet Deepseek – und das macht es anders als andere KI-Modelle Quelle: (Grafik: Dall-E / t3n)

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren