OpenAI-Chef Sam Altman: Von künstlicher Intelligenz zu Superintelligenz
In einem Blogpost hat OpenAI-Gründer Sam Altmann auf das vergangene Jahr zurückgeschaut und in Aussicht gestellt, wie es mit der fortschreitenden Entwicklung künstlicher Intelligenz in der kommenden Zeit weitergehen wird.
Dabei verschiebt sich der Fokus des Unternehmens wohl zunehmend auf die Erschaffung von „Artificial General Intelligence“ (AGI), also künstlichen Intelligenzsystemen, die generell schlauer sind als Menschen.
Frühere Bedenken bezüglich der Gefährlichkeit einer solchen Technologie scheinen für Altmann dabei keine große Rolle mehr zu spielen.
Altman über Super-KI: „Wissenschaftliche Entdeckungen enorm beschleunigen“
Wörtlich schreibt Altmann in seinem Post, man wolle OpenAIs Ziele jetzt langsam „auf Superintelligenz im wahrsten Sinne des Wortes“ ausrichten. „Wir lieben unsere aktuellen Produkte, aber wir befassen uns mit einer glorreichen Zukunft.“
Anschließend prophezeit der CEO: „Superintelligente Werkzeuge könnten wissenschaftliche Entdeckungen und Innovationen enorm beschleunigen, weit über das hinaus, wozu wir allein in der Lage wären, und damit wiederum Wohlstand und Reichtum massiv steigern“.
AGI soll Arbeitswelt revolutionieren
Wie genau AGI in der Praxis aussehen und wie sich die Superintelligenz von herkömmlichen KI-Modellen unterscheiden soll, lässt Altmann noch unklar. Die hauseigene Definition bei OpenAI lautet aber: „Hochgradig autonome Systeme, die Menschen beim Großteil der wirtschaftlich verwertbaren Leistungen übertreffen“.
Wie es aussieht, soll KI also schon in naher Zukunft viele menschliche Berufe deutlich effizienter, beziehungsweise am Ende des Tages überflüssig machen. Altman sagt in seinem Blogpost voraus, dass noch in 2025 selbständig agierende KI-Agenten Einzug in die Arbeitswelt halten und diese signifikant verändern werden.
Wirft OpenAI bei AGI frühere Sicherheitsbedenken über Bord?
Noch vor weniger als zwei Jahren hielt man AGI bei OpenAI zwar auf längere Sicht für ein erstrebenswertes Ziel, aber gleichzeitig auch für ein zu großes Risiko, um es bereits zu verfolgen. Damals schätzte man eine KI, die das menschliche Denken überträfe, als nicht mehr kontrollierbar und daher gefährlich ein.
Schon im Oktober des vergangenen Jahres hatte Altman die Entwicklung einer Superintelligenz angekündigt und war dabei von vielen Seiten für das Ausblenden der immensen Risiken kritisiert worden. Wie Techcrunch berichtet, bewegt sich OpenAI schon seit längerem weg von ursprünglichen Sicherheitsstandards und stellt stattdessen zunehmend kommerzielle Interessen in den Vordergrund.