Hinweis: Wir haben in diesem Artikel Provisions-Links verwendet und sie durch "*" gekennzeichnet. Erfolgt über diese Links eine Bestellung, erhält t3n.de eine Provision.
Spätestens wenn wir eines Tages in der Lage sein sollten, KI-Systeme zu entwickeln, die über menschliche oder gar übermenschliche Fähigkeiten verfügen, müssen wir in der Lage sein, die Sicherheit dieser Systeme zu garantieren. In seinem demnächst erscheinenden Buch argumentiert Sicherheitsforscher Roman Yampolskiy, dass es bislang in der wissenschaftlichen Literatur keinen Beleg dafür gibt, dass wir KI-Systeme tatsächlich in dem dafür notwendigen Maße kontrollieren können.
„Obwohl das Problem der KI-Kontrolle als eines der wichtigsten Probleme der Menschheit erkannt wurde, wird es nach wie vor nur unzureichend verstanden, definiert und erforscht“, warnt Yampolskiy im Vorwort von AI: Unexplainable, Unpredictable, Uncontrollable*.
Yampolskiy kritisiert, dass viele KI-Forscher:innen glauben würden, dass KI kontrolliert werden kann, obwohl es dafür keine echten Beweise gebe. „Die Beweislast liegt bei denjenigen, die behaupten, dass das Problem lösbar ist, und das derzeitige Fehlen eines solchen Beweises spricht deutlich für die Gefahren, die mit dem Vorschlag zur Entwicklung von genereller künstlicher Intelligenz verbunden sind“, schreibt Yampolskiy.
KI-Forscher: Mangelnde Kontrolle könnte zur Katastrophe führen
Yampolskiy argumentiert, dass derzeit vieles darauf hinweist, dass wir viel eher eine übermenschliche KI schaffen können, als dass wir diese auch kontrollieren können. Er vermutet sogar, dass eine ausreichende intelligente Software niemals gänzlich kontrollierbar gemacht werden kann.
Ein grundsätzliches Problem gängiger KI-Systeme liegt darin, dass wir nicht wissen, wie sie auf bestimmte Ergebnisse kommen. Wir können lediglich das Ergebnis bewerten. Langfristig sei das aber ein Problem. Denn wenn wir uns immer mehr auf KI-Systeme verlassen, würden wir gar nicht merken, wenn das System zunehmend falsche oder manipulative Antworten gibt.
Die weitere Erforschung sogenannter erklärbarer KI-Systeme sei daher dringend notwendig, meint Yampolskiy. Außerdem müsse immer sichergestellt werden, dass jede Entscheidung einer KI rückgängig gemacht werden kann. Genau das sei bei den heute gängigen Ansätzen nicht vorgesehen.
Auch wenn Yampolskiy auch radikalen Schritten wie Verboten bestimmter KI-Systeme offen gegenübersteht, ist er der Technologie nicht grundsätzlich abgeneigt. Für Yampolskiy geht es vor allem darum, jetzt ausreichend Ressourcen in die KI-Sicherheitsforschung stecken – damit wir im Idealfall in Zukunft KI-Systeme entwickeln, denen dann möglicherweise gewisse Fähigkeiten fehlen, die aber dafür von uns Menschen kontrolliert werden können.