Anzeige
Anzeige
News

Wir lagen falsch: OpenAI-Mitgründer will KI-Forschung nicht mehr öffentlich betreiben

Das am Mittwoch angekündigte neue Sprachmodell GPT-4 wird kein offenes Modell mehr sein. OpenAI will die KI-Forschung künftig geschlossener betreiben. So will sich das Unternehmen Wettbewerbsvorteile sichern.

3 Min.
Artikel merken
Anzeige
Anzeige
OpenAI hat GPT-4 vorgestellt. (Foto: Shutterstock/Tada Images)

Mit einem 98-seitigen Papier hat OpenAI in dieser Woche sein neues Sprachmodell GPT-4 vorgestellt. Was findigen KI-Forschenden an der Beschreibung als Erstes aufgefallen ist, ist ein gravierender Mangel an Informationen.

Anzeige
Anzeige

So gibt es zwar zahlreiche Benchmarks und andere Testergebnisse für GPT-4. Es gibt auch beeindruckende Demos. Aber es gibt nahezu keine Informationen über die Daten, die zum Training des Systems verwendet wurden. Ebenso wenig äußert sich OpenAI über die spezifische Hardware oder die Methoden, die zum Training des Modells verwendet wurden.

GPT-4: OpenAI gibt keine Infos zu Trainingsaufbau und mehr

Das verärgert in der KI-Community viele. Es wird kritisiert, dass OpenAI als Forschungseinrichtung gegründet worden sei, die sich der Offenheit verschrieben hatte. Zudem sei Offenheit wichtig, damit Schutzmaßnahmen gegen die Art von Bedrohungen entwickelt werden können, die von KI-Systemen wie GPT-4 ausgehen.

Anzeige
Anzeige

OpenAI selbst wird in dem genannten Papier sehr deutlich:

In Anbetracht des Wettbewerbsumfelds und der Sicherheitsimplikationen groß angelegter Modelle wie GPT-4 enthält dieser Bericht keine weiteren Details über die Architektur (einschließlich der Modellgröße), die Hardware, die Trainingsberechnung, die Datensatzkonstruktion, die Trainingsmethode oder ähnliches.

OpenAI-Wissenschaftschef Ilya Sutskever hat diese Vorgehensweise gegenüber The Verge verteidigt. Es sei doch offensichtlich, dass OpenAIs Gründe für die Nichtweitergabe von Informationen über GPT-4 Angst vor der Konkurrenz und Angst um die Sicherheit seien.

Anzeige
Anzeige

Immerhin sei die Konkurrenzsituation sehr hart, sagte Sutskever. GPT-4 sei nicht einfach zu entwickeln und habe fast alle Mitarbeitenden von OpenAI sehr lange gebunden. Gleichzeitig gebe es viele Unternehmen, die an ähnlichen Tools arbeiten. Insofern sei eine „Reifung des Feldes“ anzustreben.

Sutskever weiter: „Was die Sicherheit angeht, so würde ich sagen, dass sie noch nicht so sehr im Vordergrund steht wie die Wettbewerbsfähigkeit. Aber das wird sich ändern, und zwar aus folgenden Gründen. Diese Modelle sind sehr leistungsfähig, und sie werden immer leistungsfähiger. Irgendwann wird es ganz einfach sein, mit diesen Modellen großen Schaden anzurichten, wenn man will. Und da die Fähigkeiten immer größer werden, ist es nur logisch, dass man sie nicht preisgeben will.“

Anzeige
Anzeige

Sutskever: Völlig klar, dass offene KI eine schlechte Idee ist

Er gehe „fest davon aus, dass es in ein paar Jahren für jeden völlig klar sein wird, dass es nicht klug ist, KI offenzulegen.“ Tatsache ist indes, dass dieser neue Ansatz eine Abkehr von den Gründungsideen des Unternehmens aus dem Jahre 2015 ist.

Seinerzeit hatten Sutskever und andere erklärt, dass das Ziel der Organisation darin bestehe, „Werte für alle und nicht für die Aktionäre zu schaffen“, und dass sie zu diesem Zweck mit anderen in diesem Bereich „frei zusammenarbeiten“ werde. Konsequenterweise wurde OpenAI als Non-Profit-Organisation gegründet.

Im Jahr 2019 wandelte sich das Unternehmen zu einer „Capped-Profit-Organisation“, also einem Unternehmen mit „gedeckelten Gewinnen.“ So wurde OpenAI für Investitionen in Milliardenhöhe attraktiv. Davon machte vor allem Microsoft Gebrauch, dem OpenAI jetzt exklusive Geschäftslizenzen gewährt.

Anzeige
Anzeige

Es sei schlicht ein Irrtum gewesen, zu glauben, offene KI-Forschung sei der richtige Weg. „Ich rechne fest damit, dass es in ein paar Jahren für jeden völlig klar sein wird, dass es einfach nicht klug ist, KI als Open Source anzubieten“, so Sutskever.

Gefährdet geschlossene Forschung die Sicherheit?

In der Community der KI-Forschenden waren die ersten Reaktionen auf das geschlossene Modell von GPT-4 überwiegend negativ. Unwissenheit darüber, wie das System trainiert wurde, machten es schwer zu beurteilen, wo das System sicher eingesetzt werden könne. Es sei zudem schwierig, Korrekturen vorzuschlagen.

„Damit die Menschen fundierte Entscheidungen darüber treffen können, wo dieses Modell nicht funktioniert, müssen sie ein besseres Gefühl dafür haben, was es tut und welche Annahmen darin enthalten sind“, erläutert NomicAI-Chef Schmidt gegenüber The Verge. „Ich würde keinem selbstfahrenden Auto vertrauen, das ohne Erfahrung in verschneitem Klima trainiert wurde; es ist wahrscheinlich, dass es einige Lücken oder andere Probleme gibt, die auftauchen können, wenn es in realen Situationen eingesetzt wird.“

Anzeige
Anzeige

Angst vor Urheberrecht als Grund für geschlossene Forschung?

Als weiterer Grund für die Geheimhaltung unter anderem der Trainingsdatensätze sehen andere Experten Gefahren in der rechtlichen Haftung. Immerhin werden KI-Sprachmodelle auf riesigen Textdatensätzen trainiert. Dazu gehören auch Informationen aus dem Internet auslesen. Hier ist es bekanntlich nicht immer leicht möglich, sicherzustellen, dass kein urheberrechtlich geschütztes Material verwendet wird.

Ein Problem, dem sich Betreiber von KI-Bildgeneratoren in letzter Zeit verstärkt stellen müssen. Derzeit werden mehrere KI-Unternehmen von unabhängigen Künstlern und der Bildagentur Getty Images verklagt.

Bei der Frage der Sicherheit in der Anwendung der KI zeigt sich Sutskever ganz bei seinen Kritikern. Natürlich wäre es gut, wenn möglichst viele Menschen das KI-Modell studieren würden, um sie zu verbessern. Eben zu diesem Zwecke habe OpenAI bestimmten Forschungseinrichtungen Zugang zu seinen Systemen gewährt.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Schreib den ersten Kommentar!
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige