Anzeige
Anzeige
News
Verpasse keine News mehr!

Nach Deepseek-Erfolg: Auch OpenAI kündigt ein Open-Weight-Modell an – das steckt dahinter

Wurde der Druck zu groß? Nach dem Überraschungserfolg von Deepseek R1 und der Popularität von Metas Llama zieht OpenAI mit einem eigenen Open-Weight-Modell nach – was das bedeutet und warum es relevant ist.

5 Min.
Artikel merken
Anzeige
Anzeige

OpenAI-Chef Sam Altman hat ein offenes KI-Modell angekündigt. (Foto: Rokas Tenys/Shutterstock)

OpenAI-Chef Sam Altman hat es offiziell gemacht: Sein KI-Unternehmen will im Sommer 2025 ein eigenes Open-Weight-Sprachmodell veröffentlichen. Das kündigte Altman kürzlich auf dem Ex-Twitter X an.

Anzeige
Anzeige

OpenAI reagiert auf den Wettbewerb

Dabei werde es sich um ein leistungsstarkes neues Sprachmodell handeln, das sich durch besondere Fähigkeiten im logischen Denken auszeichne – und dessen Gewichtungen (Weights) öffentlich zugänglich gemacht werden, so der OpenAI-Chef.

Der Schritt darf als bemerkenswert bezeichnet werden, denn bislang galt OpenAI eher als Verfechter eines geschlossenen Modells: Wer GPT-4 nutzen will, benötigt Zugang über ChatGPT oder die API – die internen Parameter des Modells bleiben verborgen.

Anzeige
Anzeige

Mit dem geplanten Open-Weight-Modell will OpenAI offenbar neue Nutzergruppen ansprechen, dem wachsenden Open-Source-Druck begegnen – und zeigen, dass das Unternehmen ebenfalls in der Lage ist, Modelle zu erstellen, die sich effizient und kostengünstig trainieren lassen.

Was ist ein Open-Weight-Modell?

Open-Weight-Modelle sind KI-Modelle, bei denen nicht nur die Oberfläche oder API offen ist – sondern auch die Weights, also die gelernten Parameter des neuronalen Netzes. Das bedeutet: Nutzer:innen können das komplette Modell herunterladen, lokal ausführen, analysieren oder für eigene Zwecke weiter trainieren.

Anzeige
Anzeige

Im Gegensatz dazu stehen sogenannte Closed-Weight-Modelle wie GPT-4, Claude oder Gemini, bei denen die Modelle nur über Plattformen oder APIs zugänglich sind – die eigentlichen Parameter bleiben geheim.

Open Weights bieten viele Vorteile: Sie ermöglichen volle Kontrolle, senken wegen nicht vorhandener API-Kosten die Betriebskosten, lassen sich für spezielle Anwendungsfälle wie Datenschutz oder Edge-Computing anpassen – und bieten außerdem eine wichtige Grundlage für transparente Forschung.

Anzeige
Anzeige

Der Druck wächst – auch aus China

OpenAIs Open-Weight-Ankündigung wirkt weniger wie ein Teil eines langfristig vorbereiteten Strategiewechsels, sondern vielmehr wie eine Reaktion auf den wachsenden Wettbewerb im Bereich offener KI-Modelle. Vor allem das chinesische Unternehmen Deepseek sorgt mit seinem Open-Weight-Modell R1 international für Aufsehen.

Es wurde angeblich zu einem Bruchteil der Kosten westlicher Konkurrenzprodukte trainiert – und beeindruckt viele Entwickler:innen primär durch seine Performance. Die tatsächliche Offenheit des Modells wird allerdings hinterfragt, da weder Trainingsdaten noch Details zur Entstehung vollständig transparent gemacht wurden. Die KI ist auch bereits von einigen Ländern, etwa Italien, der Grenzen verwiesen worden.

Auch der Facebook-Mutterkonzern Meta verfolgt seit dem Sommer 2023 mit der Veröffentlichung von Llama (Large Language Model Meta AI) einen vergleichsweise offenen Kurs. Allerdings steht Llama unter einer Lizenz, die die kommerzielle Nutzung durch andere Unternehmen einschränkt – und die Trainingsdaten sind nicht vollständig öffentlich.

Anzeige
Anzeige
Lokale KI: Mit diesen 6 Tools kein Problem Quelle: Midjourny / t3n

Huggingface: „Fantastische Neuigkeiten“

Die Open-Source-Community reagiert positiv: Clément Delangue, Mitgründer und Chef des Open-Source-Plattformbetreibers HuggingFace aus der US-Metropole New York City, kommentierte die Ankündigung gegenüber Wired mit den Worten: „Das sind fantastische Neuigkeiten. Mit Deepseek wird vielen erst richtig bewusst, wie mächtig Open Weights sein können.“

Auch technisch zeigt sich, dass Open-Weight-Modelle längst mehr als Experimente sind: Viele lassen sich bereits auf handelsüblicher Hardware betreiben, sind frei verteilbar und können an individuelle Anforderungen angepasst werden – ein Vorteil, den besonders Unternehmen mit sensiblen Daten schätzen.

Frühzugang für Entwickler:innen geplant

OpenAI hat parallel zur Ankündigung eine Webseite freigeschaltet, auf der sich Entwickler:innen für einen Frühzugang zum Modell bewerben können. In den kommenden Wochen will das Unternehmen erste Events mit Prototypen veranstalten. Zielgruppe dieser Events sind Entwickler:innen, die sich frühzeitig mit dem neuen Modell vertraut machen wollen.

Anzeige
Anzeige

Steven Heidel, Entwickler bei OpenAI, bestätigte auf X jedenfalls, dass das Modell auch lokal einsetzbar sein wird: „Wir bringen dieses Jahr ein Modell heraus, das auf der eigenen Hardware betrieben werden kann.“

Weitere technische Details, etwa zur Architektur oder zum Umfang des Modells, hat OpenAI allerdings bislang nicht genannt. Auch die Lizenzfrage ist offen – ob das Modell vollständig quelloffen sein wird oder ähnlich wie Llama unter Einschränkungen steht, bleibt abzuwarten.

Positiv betrachtet, öffnet sich OpenAI – zumindest teilweise – und reagiert damit auf den wachsenden Druck aus der Open-Source-Szene. Wenn das angekündigte Modell hält, was Altman verspricht, könnte es ein wichtiger Schritt in Richtung offenerer, fairer nutzbarer KI werden. Entscheidend wird sein, wie offen das Modell am Ende wirklich ist – technisch wie rechtlich.

Anzeige
Anzeige

Diese Open-Weight-Modelle solltest du kennen

Immer mehr KI-Modelle stehen nicht nur über APIs zur Verfügung, sondern werden als vollständige Open-Weight-Modelle veröffentlicht – inklusive der Parameter, die sie im Training gelernt haben. Der folgende Überblick zeigt, wie unterschiedlich Offenheit in der Praxis aussehen kann.

Meta LLaMA (USA)

Llama (Large Language Model Meta AI) wurde von Meta entwickelt und erstmals im Juli 2023 veröffentlicht. Die Modelle stehen in mehreren Varianten zur Verfügung. Sie werden insbesondere in Forschung und Entwicklung eingesetzt. Zwar sind die Weights frei zugänglich, allerdings schränkt die Lizenz die kommerzielle Nutzung durch Dritte ein. Auch die zugrunde liegenden Trainingsdaten wurden bislang nicht offengelegt.

Mistral (Frankreich)

Das Start-up Mistral mit Sitz in Paris hat mit Mistral 7B und Mixtral zwei Open-Weight-Modelle veröffentlicht, die ohne kommerzielle Einschränkungen genutzt werden dürfen. Beide Modelle setzen auf vergleichsweise kompakte Architekturen, die schnelle Inferenzzeiten ermöglichen sollen. Die Trainingsdaten sind nicht vollständig dokumentiert, die Lizenzierung erlaubt jedoch die breite Weiterverwendung.

Anzeige
Anzeige

Deepseek R1 (China)

Das R1-Modell wurde vom chinesischen Unternehmen Deepseek entwickelt. Es soll laut Unternehmensangaben zu deutlich geringeren Kosten trainiert worden sein als westliche Vergleichsmodelle. Die Weights sind frei zugänglich, und eine kommerzielle Nutzung ist möglich. Da keine Informationen zu den verwendeten Trainingsdaten oder zur Trainingsumgebung veröffentlicht wurden, ist die tatsächliche Offenheit des Modells Gegenstand von Diskussionen.

Falcon (VAE)

Falcon ist ein Open-Weight-Modell des Technology Innovation Institute mit Sitz in Abu Dhabi. Es wurde in mehreren Varianten veröffentlicht und richtet sich insbesondere an Forschungseinrichtungen. Die Modelle sind unter einer offenen Lizenz verfügbar, die auch die kommerzielle Nutzung erlaubt. Da die Trainingsdaten nicht vollständig offengelegt wurden, lässt sich nur schwer beurteilen, auf welchen Quellen das Modell basiert und welche Verzerrungen es möglicherweise enthält.

BLOOM (international)

Das Modell BLOOM entstand im Rahmen des internationalen Bigscience-Projekts unter Federführung von HuggingFace und weiteren Partnern. Ziel war es, ein mehrsprachiges, transparentes Sprachmodell zu schaffen, das vollständig offen zugänglich ist – einschließlich der Trainingsdaten und der begleitenden Dokumentation. BLOOM gilt als eines der transparentesten Open-Weight-Modelle am Markt. Wegen seines hohen Ressourcenbedarfs ist es allerdings für viele praktische Einsatzszenarien nur eingeschränkt nutzbar.

Anzeige
Anzeige

GPT-Neo und GPT-J (USA)

Diese Modelle wurden von der Initiative EleutherAI mit dem Ziel entwickelt, frei verfügbare Alternativen zu GPT-3 zu schaffen. Sie sind quelloffen, dürfen kommerziell genutzt werden und wurden mit öffentlich zugänglichen Daten trainiert. Aufgrund ihrer geringeren Größe gelten sie eher als Einstieg in die Arbeit mit großen Sprachmodellen und finden hauptsächlich in der Forschung und im Bildungsbereich Anwendung.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige