Von OpenAI zur Superintelligenz: So könnte die Strategie für das neue Startup von Ilya Sutskever aussehen
Seit OpenAI-Mitbegründer Ilya Sutskever OpenAI verlassen und ein eigenes Unternehmen namens „Safe Superintelligence Inc.“ angekündigt hat, wird viel über seinen Plan spekuliert. Denn Sutskever gilt als einer der führenden Köpfe hinter der KI-Revolution. Wenn jemand eine KI-Superintelligenz schaffen kann, so die Spekulation, dann Sutskever.
Bigger is better?
Zusätzlich angeheizt wurden diese Spekulationen durch ein Papier von Leopold Aschenbrenner – einem Entwickler, der im Alignment- Team von Sutskever gearbeitet hatte, und der jetzt Investorengelder für die Entwicklung einer allgemeinen Künstlichen Intelligenz (AGI) einsammelt. Darin rechnet er aktuelle Entwicklungen hoch und kommt zu dem Schluss, dass eine AGI bereits 2027 nahezu unvermeidlich sei.
Sind diese Überlegungen realistisch? Kommt drauf an, wen man fragt. Sutskever glaubt fest an die so genannte Skalierungshypothese. Die besagt im Wesentlichen, dass immer größere Modelle zu bauen, die mit immer mehr Daten trainiert werden, immer „intelligenter“ werden. Das ist wenig verwunderlich, denn seine bisherige Erfahrung gab ihm recht.
Als er Anfang der 2000er Jahre nach Toronto ging, um beim Deep-Learning-Pionier Geoffrey Hinton zu studieren, hielten die meisten Forschenden neuronale Netze für hübsch, aber nutzlos. Doch Sutskever war nach eigenen Aussagen von der Frage fasziniert, wie Gehirne lernen und wie dieser Prozess in Maschinen nachgebildet werden könnte. Und er gehörte zu den Entwicklern, die bereits sehr früh auf die KI-Beschleuniger von Nvidia setzen: 2012 zeigten Sutskever, Alex Krizhevsky und Geoffrey Hinton mit Alexnet erstmals, dass tiefe neuronale Netze die besten bis dahin üblichen Verfahren der Bilderkennung schlagen konnten. 2016 war er zudem an der Entwicklung von AlphaGo beteiligt, der KI, die Verstärkungslernen nutzte, um erstmals einen menschlichen Großmeister im Go zu schlagen.
Was ist menschenähnliche Intelligenz?
Allerdings ist die Frage, was als wirklich intelligent zählt, und was eine „menschenähnliche Intelligenz“ – als notwendige Vorstufe zu einer „Superintelligenz“ auszeichnet – ebenfalls Gegenstand einer langen, kontroversen Diskussion unter Forschenden. Nicht alle teilen die Skalierungshypothese. Viele Arbeitsdefinitionen gehen jedoch davon aus, dass die KI aufgrund ihrer Fähigkeiten beurteilt werden sollte. Sobald sie also in der Lage ist, ähnliche Dinge wie ein Mensch zu tun, kann sie als intelligent angesehen werden.
Einig sind sich die meisten Experten auch darin, dass KI-Modelle sich nur dann intelligent verhalten können, wenn sie ein abstraktes Verständnis der Welt entwickeln – ein Weltmodell.
Ob große Sprachmodelle das wirklich können, ist dann schon wieder höchst umstritten.
Es gibt interessante Indizien, die sowohl für als auch gegen das Vorhandensein von Weltmodellen sprechen. Zum einen verhalten sich große Sprachmodelle tatsächlich immer wieder merkwürdig – und das heißt auch unvorhersehbar. So entdeckten beispielsweise Jason Wei und seine Kollegen von Google 2022, dass große Sprachmodelle Rechenaufgaben besser lösen können, wenn man ihnen ein Beispiel gibt, in dem die Rechnung Schritt für Schritt durchgeführt wird. Dieses „Chain of Thought Prompting“ funktioniert nicht nur bei Mathematik, sondern auch bei der Bearbeitung von Texten oder Aufgaben, bei denen die KI logische Schlüsse ziehen musste.
Kenneth Li von Harvard University konnte 2023 zudem zeigen, dass ein großes Sprachmodell nur durch Beispiele offenbar die Regeln des strategischen Brettspiels Othello lernen kann. Erst kürzlich legten Forschende von Deepmind ein ganz ähnliches Paper vor, in dem sie dem Modell Schach beibrachten – und zwar auf einem ziemlich hohen Niveau. Anderseits testete die Komplexitätsforscherin Melanie Mitchell gemeinsam mit Kollegen 2023 das Abstraktionsvermögen von GPT-4 anhand von grafischen – also nicht sprachlichen – Testaufgaben und stellte fest, dass die KI „kein Anzeichen von robustem Abstraktionsvermögen auf menschlichen Niveau“ zeigt.
Lernen zu lernen
Was aktuellen KI-Systemen zweifelsfrei noch fehlt – darin sind sich fast alle Experten einig – ist die Fähigkeit selbstständig dazu zu lernen. Denn die großen Sprachmodelle sind zwar der vorläufige technische Höhepunkt einer Technologie, die ganz allgemein unter der Überschrift „maschinelles Lernen“ geführt wird. Das „Lernen“ in dieser Bezeichnung hat aber nichts mit der Art und Weise zu tun, in der Tiere und Menschen lernen. Es handelt sich eher um eine eng begrenzte Art der mathematischen Optimierung: Während des Trainings verändert das „Lernprogramm“ die Parameter des Systems so lange, bis das Modell seine vorgegeben Aufgabe mit dem kleinstmöglichen Fehler erledigen kann.
Manche Forschende, wie der isländische KI-Forscher Kristin Thorisson, der seit 30 Jahren zum Thema AGI forscht, glauben, dass jede mit der menschlichen Intelligenz vergleichbare KI in der Lage sein muss, diese Grenzen zu überwinden. Sein Ziel sind KI-Agenten, die dabei vollständig autonom vorgehen – nur mit grundlegendem Wissen über das Lernen an sich starten und dann im Lauf der Zeit ihre eigene Programmierung ändern. Es gibt interessante Experimente mit KI-Agenten.
Sichheitsfragen
Wie kann man eine KI kontrollieren, die ihre eigene Programmierung selbstständig verändern kann? Schließlich könnte sie programmierte Sperren, die bestimmte, schädliche Outputs verbietet, einfach aufheben. Es ist sehr unwahrscheinlich, dass Sutskever auf diese Frage eine komplett neue Antwort hat. Stattdessen werden er und sein neues Team höchstwahrscheinlich die Superalignment-Strategie verfolgen, die eigentlich auch bei OpenAI gefahren werden sollte. Deren Ansatz war pragmatisch: Entwickle große Sprachmodelle, die andere große Sprachmodelle testen und beurteilen. Beispielsweise indem sie lernen, gefährliche Prompts zu finden, auf die das zu testende Modell mit toxischem Output reagiert. Für dieses Sicherheitsprogramm sollte OpenAI mindestens 20 Prozent seiner Rechenkapazität bereitstellen – allerdings kippte das Unternehmen das Programm wieder und löste das Superalignment-Team auf. Was vermutlich mit ökonomischen Überlegungen zusammenhängt, denn 20 Prozent der Rechenkapazität bedeuten nicht nur erhebliche Zusatzkosten. Die Sicherheitsforschung verzögert auch jeweils die Markteinführung des Produktes.
Man darf gespannt sein, welche Investoren sich unter was für Bedingungen auf dieses Spiel einlassen. Die Frage ist fast noch spannender als die, ob immer größere Sprachmodelle tatsächlich irgendwann „intelligent“ werden. Denn im Moment überschlagen sich die Entwickler großer Modelle förmlich mit neuen Veröffentlichungen, um so schnell wie möglich den Markt zu besetzen.