Wir lagen falsch: OpenAI-Mitgründer will KI-Forschung nicht mehr öffentlich betreiben
Mit einem 98-seitigen Papier hat OpenAI in dieser Woche sein neues Sprachmodell GPT-4 vorgestellt. Was findigen KI-Forschenden an der Beschreibung als Erstes aufgefallen ist, ist ein gravierender Mangel an Informationen.
So gibt es zwar zahlreiche Benchmarks und andere Testergebnisse für GPT-4. Es gibt auch beeindruckende Demos. Aber es gibt nahezu keine Informationen über die Daten, die zum Training des Systems verwendet wurden. Ebenso wenig äußert sich OpenAI über die spezifische Hardware oder die Methoden, die zum Training des Modells verwendet wurden.
GPT-4: OpenAI gibt keine Infos zu Trainingsaufbau und mehr
Das verärgert in der KI-Community viele. Es wird kritisiert, dass OpenAI als Forschungseinrichtung gegründet worden sei, die sich der Offenheit verschrieben hatte. Zudem sei Offenheit wichtig, damit Schutzmaßnahmen gegen die Art von Bedrohungen entwickelt werden können, die von KI-Systemen wie GPT-4 ausgehen.
OpenAI selbst wird in dem genannten Papier sehr deutlich:
In Anbetracht des Wettbewerbsumfelds und der Sicherheitsimplikationen groß angelegter Modelle wie GPT-4 enthält dieser Bericht keine weiteren Details über die Architektur (einschließlich der Modellgröße), die Hardware, die Trainingsberechnung, die Datensatzkonstruktion, die Trainingsmethode oder ähnliches.
OpenAI-Wissenschaftschef Ilya Sutskever hat diese Vorgehensweise gegenüber The Verge verteidigt. Es sei doch offensichtlich, dass OpenAIs Gründe für die Nichtweitergabe von Informationen über GPT-4 Angst vor der Konkurrenz und Angst um die Sicherheit seien.
Immerhin sei die Konkurrenzsituation sehr hart, sagte Sutskever. GPT-4 sei nicht einfach zu entwickeln und habe fast alle Mitarbeitenden von OpenAI sehr lange gebunden. Gleichzeitig gebe es viele Unternehmen, die an ähnlichen Tools arbeiten. Insofern sei eine „Reifung des Feldes“ anzustreben.
Sutskever weiter: „Was die Sicherheit angeht, so würde ich sagen, dass sie noch nicht so sehr im Vordergrund steht wie die Wettbewerbsfähigkeit. Aber das wird sich ändern, und zwar aus folgenden Gründen. Diese Modelle sind sehr leistungsfähig, und sie werden immer leistungsfähiger. Irgendwann wird es ganz einfach sein, mit diesen Modellen großen Schaden anzurichten, wenn man will. Und da die Fähigkeiten immer größer werden, ist es nur logisch, dass man sie nicht preisgeben will.“
Sutskever: Völlig klar, dass offene KI eine schlechte Idee ist
Er gehe „fest davon aus, dass es in ein paar Jahren für jeden völlig klar sein wird, dass es nicht klug ist, KI offenzulegen.“ Tatsache ist indes, dass dieser neue Ansatz eine Abkehr von den Gründungsideen des Unternehmens aus dem Jahre 2015 ist.
Seinerzeit hatten Sutskever und andere erklärt, dass das Ziel der Organisation darin bestehe, „Werte für alle und nicht für die Aktionäre zu schaffen“, und dass sie zu diesem Zweck mit anderen in diesem Bereich „frei zusammenarbeiten“ werde. Konsequenterweise wurde OpenAI als Non-Profit-Organisation gegründet.
Im Jahr 2019 wandelte sich das Unternehmen zu einer „Capped-Profit-Organisation“, also einem Unternehmen mit „gedeckelten Gewinnen.“ So wurde OpenAI für Investitionen in Milliardenhöhe attraktiv. Davon machte vor allem Microsoft Gebrauch, dem OpenAI jetzt exklusive Geschäftslizenzen gewährt.
Es sei schlicht ein Irrtum gewesen, zu glauben, offene KI-Forschung sei der richtige Weg. „Ich rechne fest damit, dass es in ein paar Jahren für jeden völlig klar sein wird, dass es einfach nicht klug ist, KI als Open Source anzubieten“, so Sutskever.
Gefährdet geschlossene Forschung die Sicherheit?
In der Community der KI-Forschenden waren die ersten Reaktionen auf das geschlossene Modell von GPT-4 überwiegend negativ. Unwissenheit darüber, wie das System trainiert wurde, machten es schwer zu beurteilen, wo das System sicher eingesetzt werden könne. Es sei zudem schwierig, Korrekturen vorzuschlagen.
„Damit die Menschen fundierte Entscheidungen darüber treffen können, wo dieses Modell nicht funktioniert, müssen sie ein besseres Gefühl dafür haben, was es tut und welche Annahmen darin enthalten sind“, erläutert NomicAI-Chef Schmidt gegenüber The Verge. „Ich würde keinem selbstfahrenden Auto vertrauen, das ohne Erfahrung in verschneitem Klima trainiert wurde; es ist wahrscheinlich, dass es einige Lücken oder andere Probleme gibt, die auftauchen können, wenn es in realen Situationen eingesetzt wird.“
Angst vor Urheberrecht als Grund für geschlossene Forschung?
Als weiterer Grund für die Geheimhaltung unter anderem der Trainingsdatensätze sehen andere Experten Gefahren in der rechtlichen Haftung. Immerhin werden KI-Sprachmodelle auf riesigen Textdatensätzen trainiert. Dazu gehören auch Informationen aus dem Internet auslesen. Hier ist es bekanntlich nicht immer leicht möglich, sicherzustellen, dass kein urheberrechtlich geschütztes Material verwendet wird.
Ein Problem, dem sich Betreiber von KI-Bildgeneratoren in letzter Zeit verstärkt stellen müssen. Derzeit werden mehrere KI-Unternehmen von unabhängigen Künstlern und der Bildagentur Getty Images verklagt.
Bei der Frage der Sicherheit in der Anwendung der KI zeigt sich Sutskever ganz bei seinen Kritikern. Natürlich wäre es gut, wenn möglichst viele Menschen das KI-Modell studieren würden, um sie zu verbessern. Eben zu diesem Zwecke habe OpenAI bestimmten Forschungseinrichtungen Zugang zu seinen Systemen gewährt.