Allgemeine künstliche Intelligenz (AGI) ist das wichtigste Forschungsziel aller KI-Forscher, gilt dabei aber als mindestens ethisch schwierig. Filmische Beispiele, etwa Skynet aus den Terminator-Blockbustern, zeigen, wozu eine AGI letztlich in der Lage sein könnte. Davor warnen inzwischen auch ernstzunehmende Forscher, die derartige Systeme teils als gottähnlich bezeichnen.
Wichtige Werte einfach geändert
Wie Semafor herausgefunden hat, hat sich nun auch OpenAI so aufgestellt, dass AGI-Forschung nicht mehr mit den Grundwerten des Unternehmens konkurriert. So hatte OpenAI noch am 21. September seine Werte auf einer Seite mit Stellenangeboten mit den Adjektiven „kühn“, „nachdenklich“, „unprätentiös“, „wirkungsorientiert“, „kollaborativ“ und „wachstumsorientiert“ beschrieben, wie ein Schnappschuss der Seite im Internet-Archive zeigt.
Nun zeigt ebendiese Seite eine völlig andere Liste, die einen „AGI-Fokus“ als allerersten Wert enthält. Weitere neue Adjektive, die das Unternehmen beschreiben sollen, lauten „intensiv und rauflustig“. Es gehe OpenAI um das „Skalieren“ erfahren wir. Zudem wolle das Unternehmen „etwas schaffen, das die Leute lieben“. Dafür werde ein ausgeprägter „Teamgeist“ erwartet.
Was ist AGI nach Definition von OpenAI?
Abseits der Tatsache, dass sich Texte auf Internetseiten jederzeit ändern lassen, sollte doch die Frage erlaubt sein, wie es möglich sein kann, dass sich ein Unternehmen innerhalb von zwei Wochen völlig anders aufstellt. Und sicherlich dürfte der neue „AGI-Fokus“ kein hingeworfenes Wort sein. Allerdings ist nicht klar, was OpenAI damit meint.
Denn noch im Februar schrieb OpenAI-Chef Sam Altman, der am liebsten Iris-Scans aller Weltbewohnenden hätte, in einem Blogbeitrag des Unternehmens, dass AGI im Großen und Ganzen als „Systeme, die im Allgemeinen schlauer sind als Menschen“ zu verstehen seien. Von dieser Definition ist er inzwischen vermeintlich wieder abgerückt.
In einem ausführlichen Interview mit dem New-York-Magazine aus dem September 2023 kochte er das Thema etwas herunter und beschrieb AGI als das „Äquivalent eines durchschnittlichen Menschen, den man als Mitarbeiter einstellen könnte“.
„Sichere, nützliche“ AGI als Ziel
Schwer zu glauben, dass jemand Geld dafür in die Hand nehmen will, um eine AGI zu schaffen, die gerade mal einen durchschnittlichen Mitarbeitenden repräsentieren würde. Wahrscheinlicher scheint daher, dass Altman versucht, die Öffentlichkeit nicht zu beunruhigen. So wundert auch der Text auf der Stellenanzeigenseite des Unternehmens nicht:
„Wir sind bestrebt, sichere, nützliche AGI zu entwickeln, die einen massiven positiven Einfluss auf die Zukunft der Menschheit haben wird. Alles, was nicht dazu beiträgt, ist nicht mehr möglich.“
heisst das nicht „GAI“ für „General Artificial Intelligence“ ?