Laut OpenAI-CEO: Künstliche Superintelligenz in greifbarer Nähe
Auf seinem Blog hat der OpenAI-CEO Sam Altman nicht nur eine Einschätzung dazu gegeben, wann Künstliche Intelligenz wirklich durchschlagen wird, sondern auch, wie sich das auswirken wird. Laut Altman befindet sich die Menschheit aktuell bereits an der Schwelle zu einem neuen Zeitalter, dass er als „Zeitalter der Intelligenz“ bezeichnet.
Wörtlich schreibt Altman weiter: „Es ist möglich, dass wir in ein paar tausend Tagen (!) eine Superintelligenz haben werden; es kann länger dauern, aber ich bin zuversichtlich, dass wir es schaffen werden.“ Obwohl der OpenAI-CEO den zeitlichen Rahmen sicher bewusst vage lässt, scheint er davon ausgehen, dass die Entwicklung einer künstlichen Superintelligenz (ASI) immerhin in greifbarer Nähe ist.
Eine Künstliche Superintelligenz wäre dem Menschen weit überlegen
4.000 Tage wären beispielsweise elf Jahre. Doch auch, wenn es doppelt so lange dauern würde, wären es nur noch gute zwei Jahrzehnte, in denen es KI-Expert:innen gelingen könnte, ein hypothetisches softwarebasiertes KI-System zu entwickeln, das dem menschlichen Intellekt nicht nur ebenbürtig wäre, sondern ihm sogar in dramatischer Weise überlegen sein könnte.
Was für manche Menschen durchaus bedrohlich klingt, sieht der CEO von OpenAI fast durchweg positiv. Die Entwicklung einer ASI würde mit einem massiven Anstieg des Wohlstands einhergehen, so seine Prognose.
Langfristig soll auch der Arbeitsmarkt profitieren
Er räumt zwar einige Umwälzungen am Arbeitsmarkt ein. Diese würden insgesamt aber nicht ins Gewicht fallen und vor den Errungenschaften der neuen KI-Systeme verblassen.
Zu ihnen zählt Altman unter anderem Vorzüge wie maßgeschneiderte Bildung oder Hilfe bei der medizinischen Versorgung. Auf lange Sicht gesehen könnte eine Superintelligenz aber auch selbstständig wissenschaftliche Durchbrüche in so wichtigen Bereichen wie dem Klimawandel oder der Raumfahrt erzielen.
Altman: KI muss für alle zugänglich sein
Grundlage des bevorstehenden Durchbruchs ist laut Altman das sogenannte Deep Learning und damit ein Algorithmus, der anhand von Daten lernen und sich immer weiter verbessern könne. Und der CEO hat eine klare Vorstellung davon, was nötig ist, um die Technologie möglichst schadenfrei voranzubringen.
Computer müssten billiger werden und im Überfluss vorhanden sein, so der CEO. Nur dann bliebe KI keine Ressource, die nur reichen Menschen als Werkzeug diene und um die Kriege geführt würden.
Die Sicherheit der Menschheit steht auf dem Spiel
Was aus Altman Sicht nachvollziehbar erscheinen mag, finden manche Leser:innen seines Blogs durchaus erstaunlich. So schreibt zum Beispiel der Bloomberg-Kolumnist Matthew Yglesias auf X: „Bemerkenswert, dass @sama nicht einmal mehr Lippenbekenntnisse zu existenziellen Risiken abgibt. Die einzigen Nachteile, die er in Betracht zieht, sind Probleme bei der Anpassung des Arbeitsmarktes.“
Nicht nur in den USA, wo der kalifornische Gesetzentwurf SB 1047 debattiert wird, fordern Politiker:innen seit langem überfällige Regulierungen für die KI-Branche. Während die eine Seite die Sicherheit der Menschheit in Gefahr sieht, fürchtet die andere eine übertriebene Einschränkung der Innovationskraft.