Anzeige
Anzeige
News

KI-Experte verlässt OpenAI: „Die Welt ist nicht bereit für AIlgemeine Künstliche Intelligenz“

Mit Miles Brundage muss OpenAI den nächsten Abgang verkraften. Der KI-Experte ist unter anderem für die Entwicklung von Sicherheitsstrategien verantwortlich. Im Hinblick auf Allgemeine Künstliche Intelligenz hat er eine klare Haltung.

Von Kay Nordenbrock
2 Min.
Artikel merken
Anzeige
Anzeige

Ein KI-Sicherheitsforscher verlässt OpenAI. (Foto: JarTee / Shutterstock)

Miles Brundage war sechs Jahre lang für OpenAI tätig, zuletzt als Senior Advisor für AGI Readiness. Genau vor dieser Allgemeinen Künstlichen Intelligenz (AGI) warnt der KI-Experte jetzt. Dabei handelt es sich um eine Form der künstlichen Intelligenz, die menschliche Intelligenz in all ihren kognitiven Fähigkeiten erreicht oder übertrifft und eigenständig komplexe Aufgaben lösen kann.

Anzeige
Anzeige

„Weder OpenAI noch irgendein anderes führendes KI-Labor ist auf AGI vorbereitet, und die Welt ebenfalls nicht“, schreibt Brundage in einem Artikel auf Substack. Für kontrovers hält er diese Aussage, zumindest innerhalb der Geschäftsführung von OpenAI, allerdings nicht. Es sei schließlich eine Frage, als die „ob das Unternehmen und die Welt auf dem richtigen Weg sind, um zum richtigen Zeitpunkt bereit zu sein.“

Für Brundage sei der Begriff „bereit für AGI“ lediglich eine Abkürzung. Die Langform lautet für ihn: „Bereitschaft zur sicheren und nutzbringenden Entwicklung, zum Einsatz und zur Verwaltung zunehmend leistungsfähigerer KI-Systeme“.

Anzeige
Anzeige

Regierungen könnten bei AGI vor Problemen stehen

Bei OpenAI leitete Brundage die Entwicklung von Sicherheitsstrategien. Seine Teams arbeiteten an Programmen zur Risikobewertung von Modellen und den gesellschaftlichen Folgen von Sprachmodellen.

Der Hauptgrund für seinen Abgang war die Einschränkung im Hinblick auf Forschung und Publikation bei OpenAI. Diese wurden durch das steigende öffentliche Profil des Unternehmens und interne Richtlinien immer weiter verschärft.

Anzeige
Anzeige

Neben Brundage haben zuletzt auch weitere bekannte Sicherheitsforscher OpenAI verlassen. Darunter Jan Leike, der kritisierte, dass die Sicherheitskultur und -prozesse bei OpenAI zugunsten schneller Produktentwicklungen an Bedeutung verloren hätten. Auch Mitgründer Ilya Sutskever verabschiedete sich, um ein eigenes KI-Startup zu gründen, das sich auf sichere AGI-Entwicklung konzentrieren möchte, meldet The Verge.

Die Abgänge weisen auf eine wachsende Kluft zwischen OpenAIs ursprünglicher Mission und den zunehmenden kommerziellen Interessen hin. Das Unternehmen steht Berichten zufolge unter Druck, innerhalb der nächsten zwei Jahre in eine Public Benefit Corporation umgewandelt zu werden, um sich weiterhin Investitionen zu sichern.

Anzeige
Anzeige

Brundage glaubt, externe Forschung sei notwendig, um unabhängig und frei von Interessenkonflikten über KI-Risiken sprechen zu können. Er ist der Meinung, dass er außerhalb der Industrie einen größeren Einfluss auf die globale KI-Politik haben kann.

KI-Forscher gründet seine eigene Organisation

Um das in die Tat umzusetzen, plant der KI-Sicherheitsforscher eine Non-Profit-Organisation zu gründen, die sich verstärkt auf globale KI-Richtlinien konzentriert. Als Forschungsschwerpunkte dafür definiert er die Entwicklung und Regulierung von KI-Sicherheit, wirtschaftliche Auswirkungen der KI, Bereitstellung „guter“ KI-Anwendungen, globale „AI grand strategy“.

Berichten zufolge hatten Brundages und Leikes Teams oft nicht genügend Ressourcen, um die erforderliche Sicherheitsforschung durchzuführen. So soll Leikes Gruppe keine ausreichende Rechenkapazität erhalten haben, was letztlich zur Auflösung des Teams führte.

Anzeige
Anzeige

OpenAI möchte Brundage allerdings bei seinem neuen Vorhaben unterstützen, indem sie Finanzierung, API-Credits und Vorabzugang zu neuen Modellen bereitstellen. Diese Unterstützung soll an keine Bedingungen geknüpft sein, schreibt er.

Lokale KI: Mit diesen 5 Tools kein Problem Quelle: Midjourny / t3n
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare (1)

Community-Richtlinien

Andreas Hierling

Nach meiner Auffassung sind die Risiken der KI überschätzt. Solange Nuklearwaffen noch Chat über das Internet gesteuert und abgefeuert werden können, mache ich mir da wenig Sorgen…

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige