Was ist eigentlich AGI (Artificial General Intelligence) – Traum oder Albtraum?
In den Spekulationen um Sam Altmans Kurzzeit-Entlassung bei OpenAI fällt derzeit immer wieder ein Begriff: AGI, Artificial General Intelligence.
OpenAI soll ein Durchbruch auf dem Weg zu einer AGI gelungen sein, heißt es bei der Nachrichtenagentur Reuters und bei The Information. Beide Medien berufen sich auf Insider-Kreise, die Rede ist von einem Projekt namens Q* (gesprochen Q-Star). Das darin entwickelte KI-Modell soll bisher zwar nur einfache Matheaufgaben lösen, aus Sicht der Entwickler:innen aber noch weit mehr Potenzial aufweisen.
Nachprüfen lassen sich die Angaben der OpenAI-Insider gegenüber Reuters und The Information derzeit nicht. Trotzdem lohnt es sich, sich das Konzept AGI spätestens jetzt einmal genauer anzuschauen.
Artificial General Intelligence: Die Krux mit der Definition
First things first: Eine universell gültige Definition, was eine Artificial General Intelligence ist und was sie kann, gibt es nicht. Zwar ist die Grundidee meist die gleiche – ein KI-Modell wird hinsichtlich seiner Fähigkeiten dem Menschen ebenbürtiger oder wächst sogar über ihn hinaus –, wenn es an die Details geht, gibt es dann aber verschiedene Interpretationen.
OpenAI spricht im Bezug auf AGI von „KI-Systeme(n), die grundlegend schlauer sind als Menschen“, und an anderer Stelle von „hochgradig autonomen Systemen, die den Menschen bei den meisten wirtschaftlich wertvollen Arbeiten übertreffen“.
Bei der Google-Tocher Deepmind ist hingegen von einem „KI-System, das bei den meisten Aufgaben zumindest so fähig ist wie ein Mensch“, die Rede. Aber welche Aufgaben sind dabei gemeint? Und was bedeutet eigentlich „grundlegend schlauer“ – wo doch schon die menschlichen Intelligenz ein unglaublich vielschichtiges und entsprechend viel diskutiertes, wissenschaftliches Konzept ist?
Dass es je nach AGI-Definition kleine, aber feine Unterschiede gibt, zeigt auch ein Paper, das ein Deepmind-Forschungsteam vor Kurzem veröffentlicht hat. Die Wissenschaftler:innen schreiben schon zu Beginn ihrer Arbeit: „Wenn man 100 KI-Experten bitten würde, zu definieren, was sie mit ‚AGI‘ meinen, würden Sie wahrscheinlich 100 verwandte, aber doch unterschiedliche Definitionen erhalten.“
Am Ende des Papers steht eine überarbeitete wissenschaftliche Definition inklusive Klassifizierungsschema, die künftig für mehr Klarheit in der Forschung sorgen soll.
Wie unterscheidet sich General AI von herkömmlichen Modellen?
Der Begriff AGI wurde erstmals 1997 von Mark Gubrud verwendet. Populär gemacht hat ihn dann der Wissenschaftler und Deepmind-Mitbegründer Shane Legg in den 2000er-Jahren. Legg hatte den Ausdruck „Artificial General Intelligence“ damals seinem Forscherkollege Ben Goertzel als Titel für ein Buch vorgeschlagen, das sich mit zukünftigen KI-Entwicklungen auseinandersetzte.
„Ich hatte keine besonders klare Definition. Ich hatte nicht das Gefühl, dass sie notwendig war“, so Legg gegenüber der MIT-Technology-Review. Für ihn sei AGI damals eher ein Forschungsgebiet gewesen statt „ein Artefakt“. Bis vor einigen Jahren wurde die Idee einer AGI tatsächlich von vielen Wissenschaftler:innen nur vage umrissen oder sogar belächelt. Seit generative KI-Modelle mit ChatGPT an der Spitze allerdings im Mainstream angekommen sind, wird das Konzept immer ernsthafter diskutiert.
Die meisten KI-Anwendungen, die derzeit zugänglich sind, werden auch als Narrow AI oder Artificial Narrow Intelligence bezeichnet. Sie sind in ihrer Funktionsweise auf ein bestimmtes Ziel ausgerichtet – zum Beispiel das Auslesen und Generieren von Texten oder die Navigation eines Fahrzeugs durch den Straßenverkehr. Mit dieser Beschränkung auf einen Skill-Bereich gelten sie als „schwache“ KI-Modelle. AGI-Modelle sollen dagegen irgendwann universeller einsetzbar und damit „stärker“ sein.
Während ein Microsoft-Team schon in GPT-4 einen „Funken von genereller künstlicher Intelligenz“ gefunden haben will, geht ein Großteil der Wissenschaftscommunity davon aus, dass AGI-Modelle nicht auf rein statistischer Basis entstehen können.
Was kann eine Artificial General Intelligence?
Im Gegensatz zu den derzeit verbreiteten Modellen, die mit großen Datenmengen trainiert werden und ihre Ergebnisse dann anhand von Wahrscheinlichkeitsprognosen, welcher Output passen könnte, generieren, sollen AGI-Modelle irgendwann menschliche Argumentationslogik und Intuition widerspiegeln. Vollkommen autonom müssen sie dabei nicht sein, so die Forschungsgruppe von Deepmind: Es sei auch möglich, AGI zu bauen, die trotz allem weiterhin von Menschen gesteuert werden.
In ihrer neuen Definition legen die Deepmind-Forscher:innen unter anderem fest, dass eine AGI nicht nur hochleistungsfähig sein muss – eine Eigenschaft, die viele bestehenden Modelle bereits erfüllen–, sondern auch universell einsetzbar sein sollte. AGI-Modelle sollen zudem Aufgaben nicht nur erledigen, sondern auch lernen können, wie eine Aufgabe zu erledigen ist, ihre Leistung einzuschätzen und bei Bedarf um Hilfe zu bitten.
In Stein gemeißelt ist diese Definition freilich nicht: Indem die Arbeitsweise bestehender KI-Modelle immer besser erforscht wird, werden sich für wissenschaftliche Teams auch neue Möglichkeiten auftun, die Merkmale einer AGI detaillierter festzulegen.
Generelle künstliche Intelligenz als Chance und Bedrohung
Je näher KI-Modelle an die kognitiven Fähigkeiten von Menschen heranreichen, also potenziell zur AGI werden, umso lauter werden auch die Stimmen, die diese Entwicklung als Bedrohung wahrnehmen. Und tatsächlich schreibt auch Sam Altman in seinem Blogbeitrag, dass mit AGI-Modellen ein „ernsthaftes Risiko des Missbrauchs, drastischer Unfälle und gesellschaftlicher Verwerfungen“ entstehen könnte.
Aus seiner Sicht würden aber die Vorteile einer generellen künstlichen Intelligenz überwiegen. Die könnte nämlich, so Altman in einem Post von Februar 2023, im Idealfall „die Menschheit verbessern, indem sie den Wohlstand erhöht, die Weltwirtschaft ankurbelt und bei der Entdeckung neuer wissenschaftlicher Erkenntnisse hilft“. Man müsse bei der Entwicklung eben „herausbekommen, wie man es richtig macht“, um die Risiken zu minimieren.
Eine ganz andere Frage zu Artificial General Intelligence stellt die KI-Wissenschaftlerin Timnit Gebru. Sie war einst als Tech-Ethik-Forscherin bei Google angestellt und wurde 2020 nach der Veröffentlichung eines kritischen Aufsatzes entlassen.
Für Gebru steht die Frage nach dem konkreten Zweck im Fokus. Denn der ist bei den meisten Bestrebungen, eine AGI zu entwickeln, kaum definiert – auch die Definitionen im Deepmind-Paper setzen keine konkreten Limits. Für Gebru ein falsches Utopie-Versprechen. In einem Vortrag aus dem Frühjahr 2023 formuliert sie ihre Kritik wie folgt: „Versucht nicht, einen Gott zu bauen.“
Es hapert nicht nur an der Definition: Wie wird AGI gemessen?
Unabhängig davon, wie man der Idee einer AGI gegenübersteht: Wer künftig postuliert, ein entsprechendes Modell entwickelt oder zumindest einen Durchbruch auf dem Weg dahin geschafft zu haben, wird das auch irgendwie nachweisen müssen.
Wie so ein Leistungsnachweis allerdings aussehen könnte, ist noch unklar. Aktuell diskutiert die wissenschaftliche Community viel darüber, wie die Leistung großer Sprachmodelle gemessen werden sollte – bei Artificial General Intelligence dürfte der Prozess dann noch einmal komplizierter werden.
Geht es nach den Deepmind-Forscher:innen, sollte AGI künftig nicht nur einmal, sondern laufend bewertet werden – aber dafür müssten Unternehmungen wie OpenAIs mutmaßliches Projekt Q* erst einmal noch deutlich weiterentwickelt und irgendwann öffentlich vorgestellt werden.