Anzeige
Anzeige
MIT Technology Review Analyse

Von OpenAI zur Superintelligenz: So könnte die Strategie für das neue Startup von Ilya Sutskever aussehen

OpenAI-Mitbegründer Ilya Sutskever will mit einem eigenen Unternehmen eine „sichere Superintelligenz“ entwickeln. Wie das gehen soll, hat er zwar bisher nicht verraten. Höchstwahrscheinlich wird er aber seine bisherigen Ideen weiter verfolgen.

Von Wolfgang Stieler
4 Min.
Artikel merken
Anzeige
Anzeige
Mit Safe Superintelligence will Ilya Sutskever genau das entwickeln: eine ungefährliche künstliche Intelligenz. (Foto: picture alliance / REUTERS | Amir Cohen)

Seit OpenAI-Mitbegründer Ilya Sutskever OpenAI verlassen und ein eigenes Unternehmen namens „Safe Superintelligence Inc.“ angekündigt hat, wird viel über seinen Plan spekuliert. Denn Sutskever gilt als einer der führenden Köpfe hinter der KI-Revolution. Wenn jemand eine KI-Superintelligenz schaffen kann, so die Spekulation, dann Sutskever.

Anzeige
Anzeige

Bigger is better?

Zusätzlich angeheizt wurden diese Spekulationen durch ein Papier von Leopold Aschenbrenner – einem Entwickler, der im Alignment- Team von Sutskever gearbeitet hatte, und der jetzt Investorengelder für die Entwicklung einer allgemeinen Künstlichen Intelligenz (AGI) einsammelt. Darin rechnet er aktuelle Entwicklungen hoch und kommt zu dem Schluss, dass eine AGI bereits 2027 nahezu unvermeidlich sei.

Sind diese Überlegungen realistisch? Kommt drauf an, wen man fragt. Sutskever glaubt fest an die so genannte Skalierungshypothese. Die besagt im Wesentlichen, dass immer größere Modelle zu bauen, die mit immer mehr Daten trainiert werden, immer „intelligenter“ werden. Das ist wenig verwunderlich, denn seine bisherige Erfahrung gab ihm recht.

Anzeige
Anzeige

Als er Anfang der 2000er Jahre nach Toronto ging, um beim Deep-Learning-Pionier Geoffrey Hinton zu studieren, hielten die meisten Forschenden neuronale Netze für hübsch, aber nutzlos. Doch Sutskever war nach eigenen Aussagen von der Frage fasziniert, wie Gehirne lernen und wie dieser Prozess in Maschinen nachgebildet werden könnte. Und er gehörte zu den Entwicklern, die bereits sehr früh auf die KI-Beschleuniger von Nvidia setzen: 2012 zeigten Sutskever, Alex Krizhevsky und Geoffrey Hinton mit Alexnet erstmals, dass tiefe neuronale Netze die besten bis dahin üblichen Verfahren der Bilderkennung schlagen konnten. 2016 war er zudem an der Entwicklung von AlphaGo beteiligt, der KI, die Verstärkungslernen nutzte, um erstmals einen menschlichen Großmeister im Go zu schlagen.

Was ist menschenähnliche Intelligenz?

Allerdings ist die Frage, was als wirklich intelligent zählt, und was eine „menschenähnliche Intelligenz“ – als notwendige Vorstufe zu einer „Superintelligenz“ auszeichnet – ebenfalls Gegenstand einer langen, kontroversen Diskussion unter Forschenden. Nicht alle teilen die Skalierungshypothese. Viele Arbeitsdefinitionen gehen jedoch davon aus, dass die KI aufgrund ihrer Fähigkeiten beurteilt werden sollte. Sobald sie also in der Lage ist, ähnliche Dinge wie ein Mensch zu tun, kann sie als intelligent angesehen werden.

Anzeige
Anzeige

Einig sind sich die meisten Experten auch darin, dass KI-Modelle sich nur dann intelligent verhalten können, wenn sie ein abstraktes Verständnis der Welt entwickeln – ein Weltmodell.

Ob große Sprachmodelle das wirklich können, ist dann schon wieder höchst umstritten.

Anzeige
Anzeige

Es gibt interessante Indizien, die sowohl für als auch gegen das Vorhandensein von Weltmodellen sprechen. Zum einen verhalten sich große Sprachmodelle tatsächlich immer wieder merkwürdig – und das heißt auch unvorhersehbar. So entdeckten beispielsweise Jason Wei und seine Kollegen von Google 2022, dass große Sprachmodelle Rechenaufgaben besser lösen können, wenn man ihnen ein Beispiel gibt, in dem die Rechnung Schritt für Schritt durchgeführt wird. Dieses „Chain of Thought Prompting“ funktioniert nicht nur bei Mathematik, sondern auch bei der Bearbeitung von Texten oder Aufgaben, bei denen die KI logische Schlüsse ziehen musste.

Kenneth Li von Harvard University konnte 2023 zudem zeigen, dass ein großes Sprachmodell nur durch Beispiele offenbar die Regeln des strategischen Brettspiels Othello lernen kann. Erst kürzlich legten Forschende von Deepmind ein ganz ähnliches Paper vor, in dem sie dem Modell Schach beibrachten – und zwar auf einem ziemlich hohen Niveau. Anderseits testete die Komplexitätsforscherin Melanie Mitchell gemeinsam mit Kollegen 2023 das Abstraktionsvermögen von GPT-4 anhand von grafischen – also nicht sprachlichen – Testaufgaben und stellte fest, dass die KI „kein Anzeichen von robustem Abstraktionsvermögen auf menschlichen Niveau“ zeigt.

Lernen zu lernen

Was aktuellen KI-Systemen zweifelsfrei noch fehlt – darin sind sich fast alle Experten einig – ist die Fähigkeit selbstständig dazu zu lernen. Denn die großen Sprachmodelle sind zwar der vorläufige technische Höhepunkt einer Technologie, die ganz allgemein unter der Überschrift „maschinelles Lernen“ geführt wird. Das „Lernen“ in dieser Bezeichnung hat aber nichts mit der Art und Weise zu tun, in der Tiere und Menschen lernen. Es handelt sich eher um eine eng begrenzte Art der mathematischen Optimierung: Während des Trainings verändert das „Lernprogramm“ die Parameter des Systems so lange, bis das Modell seine vorgegeben Aufgabe mit dem kleinstmöglichen Fehler erledigen kann.

Anzeige
Anzeige

Manche Forschende, wie der isländische KI-Forscher Kristin Thorisson, der seit 30 Jahren zum Thema AGI forscht, glauben, dass jede mit der menschlichen Intelligenz vergleichbare KI in der Lage sein muss, diese Grenzen zu überwinden. Sein Ziel sind KI-Agenten, die dabei vollständig autonom vorgehen – nur mit grundlegendem Wissen über das Lernen an sich starten und dann im Lauf der Zeit ihre eigene Programmierung ändern. Es gibt interessante Experimente mit KI-Agenten.

Sichheitsfragen

Wie kann man eine KI kontrollieren, die ihre eigene Programmierung selbstständig verändern kann? Schließlich könnte sie programmierte Sperren, die bestimmte, schädliche Outputs verbietet, einfach aufheben. Es ist sehr unwahrscheinlich, dass Sutskever auf diese Frage eine komplett neue Antwort hat. Stattdessen werden er und sein neues Team höchstwahrscheinlich die Superalignment-Strategie verfolgen, die eigentlich auch bei OpenAI gefahren werden sollte. Deren Ansatz war pragmatisch: Entwickle große Sprachmodelle, die andere große Sprachmodelle testen und beurteilen. Beispielsweise indem sie lernen, gefährliche Prompts zu finden, auf die das zu testende Modell mit toxischem Output reagiert. Für dieses Sicherheitsprogramm sollte OpenAI mindestens 20 Prozent seiner Rechenkapazität bereitstellen – allerdings kippte das Unternehmen das Programm wieder und löste das Superalignment-Team auf. Was vermutlich mit ökonomischen Überlegungen zusammenhängt, denn 20 Prozent der Rechenkapazität bedeuten nicht nur erhebliche Zusatzkosten. Die Sicherheitsforschung verzögert auch jeweils die Markteinführung des Produktes.

Man darf gespannt sein, welche Investoren sich unter was für Bedingungen auf dieses Spiel einlassen. Die Frage ist fast noch spannender als die, ob immer größere Sprachmodelle tatsächlich irgendwann „intelligent“ werden. Denn im Moment überschlagen sich die Entwickler großer Modelle förmlich mit neuen Veröffentlichungen, um so schnell wie möglich den Markt zu besetzen.

Mehr zu diesem Thema
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige