Strategieänderung bei OpenAI: Sicherheitskomitee kann Veröffentlichung neuer Modelle verhindern
Wie OpenAI in einem Blogbeitrag bekannt gibt, wird der bisherige Sicherheitsausschuss zu einem unabhängigen Organ, dass die Befugnis hat, neue KI-Modelle aus Sicherheitsgründen zu blockieren. Sie dürfen dann zunächst nicht eingeführt werden.
Neues Gremium besteht aus Vorstandsmitgliedern
Die Einrichtung des Gremiums folge nach einer kürzlich durchgeführten 90-tägigen Überprüfung der „sicherheitsbezogenen Prozesse und Schutzmaßnahmen“, so das Unternehmen. Den Vorsitz übernimmt der angesehene KI-Experte Zico Kolter, der unter anderem Chefforscher für KI-Anwendungen bei Bosch und Leiter der Abteilung für Machine Learning an der US-amerikanischen Carnegie-Mellon-Universiät ist, wo er die Abteilung für Machine Learning leitet. Er ist seit Kurzem auch Vorstandsmitglied bei OpenAI.
Zudem gehören der Quora-Gründer Adam D’Angelo, der ehemalige NSA-Chef Paul Nakasone und Ex-Sony-Vizepräsidentin Nicole Seligman dem Gremium an. Alle drei gehören ebenso dem OpenAI-Vorstand an. Wie das Unternehmen mitteilt, wird das gestärkte Gremium „von der Unternehmensleitung über Sicherheitsbewertungen für wichtige Modellveröffentlichungen informiert und wird zusammen mit dem gesamten Vorstand die Aufsicht über Modellveröffentlichungen ausüben, einschließlich der Befugnis, eine Veröffentlichung zu verschieben, bis Sicherheitsbedenken ausgeräumt sind“. Zudem werde der Gesamtvorstand „regelmäßige Briefings“ zu „Sicherheitsfragen“ erhalten.
Aufgrund des Umstandes, dass alle Mitglieder des neuen Gremiums zugleich Vorstandsmitglieder sind, stellt sich die Frage, wie unabhängig es tatsächlich sein wird. Zunächst sollte sogar OpenAI-Chef Sam Altman dem Ausschuss angehören. Dessen Nominierung wurde zwischenzeitlich zurückgezogen.
Sicherheitsausschuss soll weitere Öffnung befördern
Insgesamt soll die Einrichtung des Sicherheitsausschusses auch dabei helfen, „zusätzliche Möglichkeiten für die Zusammenarbeit mit der Industrie und den Informationsaustausch zu schaffen, um die Sicherheit der KI-Branche zu verbessern“. Ebenso werde laut OpenAI nach „mehr Möglichkeiten zum Austausch und zur Erläuterung unserer Sicherheitsarbeit“ und nach „mehr Möglichkeiten für unabhängige Tests unserer Systeme“ gesucht.
Der Ansatz erinnert an das Oversight Board der Facebook-Mutter Meta, das sich mit Fragen der Moderation von Inhalten und der Fortentwicklung entsprechender Richtlinien befasst. Der Unterschied besteht indes darin, dass die Mitglieder des Boards eben gerade nicht im Vorstand von Meta vertreten sind.