
Allgemeine künstliche Intelligenz (AGI) ist das wichtigste Forschungsziel aller KI-Forscher, gilt dabei aber als mindestens ethisch schwierig. Filmische Beispiele, etwa Skynet aus den Terminator-Blockbustern, zeigen, wozu eine AGI letztlich in der Lage sein könnte. Davor warnen inzwischen auch ernstzunehmende Forscher, die derartige Systeme teils als gottähnlich bezeichnen.
Wie Semafor herausgefunden hat, hat sich nun auch OpenAI so aufgestellt, dass AGI-Forschung nicht mehr mit den Grundwerten des Unternehmens konkurriert. So hatte OpenAI noch am 21. September seine Werte auf einer Seite mit Stellenangeboten mit den Adjektiven „kühn“, „nachdenklich“, „unprätentiös“, „wirkungsorientiert“, „kollaborativ“ und „wachstumsorientiert“ beschrieben, wie ein Schnappschuss der Seite im Internet-Archive zeigt.
Nun zeigt ebendiese Seite eine völlig andere Liste, die einen „AGI-Fokus“ als allerersten Wert enthält. Weitere neue Adjektive, die das Unternehmen beschreiben sollen, lauten „intensiv und rauflustig“. Es gehe OpenAI um das „Skalieren“ erfahren wir. Zudem wolle das Unternehmen „etwas schaffen, das die Leute lieben“. Dafür werde ein ausgeprägter „Teamgeist“ erwartet.
Abseits der Tatsache, dass sich Texte auf Internetseiten jederzeit ändern lassen, sollte doch die Frage erlaubt sein, wie es möglich sein kann, dass sich ein Unternehmen innerhalb von zwei Wochen völlig anders aufstellt. Und sicherlich dürfte der neue „AGI-Fokus“ kein hingeworfenes Wort sein. Allerdings ist nicht klar, was OpenAI damit meint.
Denn noch im Februar schrieb OpenAI-Chef Sam Altman, der am liebsten Iris-Scans aller Weltbewohnenden hätte, in einem Blogbeitrag des Unternehmens, dass AGI im Großen und Ganzen als „Systeme, die im Allgemeinen schlauer sind als Menschen“ zu verstehen seien. Von dieser Definition ist er inzwischen vermeintlich wieder abgerückt.
In einem ausführlichen Interview mit dem New-York-Magazine aus dem September 2023 kochte er das Thema etwas herunter und beschrieb AGI als das „Äquivalent eines durchschnittlichen Menschen, den man als Mitarbeiter einstellen könnte“.
Schwer zu glauben, dass jemand Geld dafür in die Hand nehmen will, um eine AGI zu schaffen, die gerade mal einen durchschnittlichen Mitarbeitenden repräsentieren würde. Wahrscheinlicher scheint daher, dass Altman versucht, die Öffentlichkeit nicht zu beunruhigen. So wundert auch der Text auf der Stellenanzeigenseite des Unternehmens nicht:
„Wir sind bestrebt, sichere, nützliche AGI zu entwickeln, die einen massiven positiven Einfluss auf die Zukunft der Menschheit haben wird. Alles, was nicht dazu beiträgt, ist nicht mehr möglich.“
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team
heisst das nicht „GAI“ für „General Artificial Intelligence“ ?