
KI darf keine Atomwaffen starten – laut US-Gesetzesvorhaben. (Foto: Shutterstock / archy13)
Seit Joe Biden und nicht mehr Donald Trump US-Präsident ist, scheint – zumindest vonseiten der USA aus – die Gefahr etwas geringer, dass ein unüberlegter Einsatz von Atomwaffen ausgelöst werden könnte.
Atomwaffen: Beunruhigende Trump-Aussagen
Trump soll militärische Berater:innen kurz vor seiner Wahl zum US-Staatsoberhaupt gefragt haben, warum die USA ihre Atomwaffen denn nicht einsetzen würden, wo sie doch welche hätten. Nicht das erste und auch nicht das letzte Mal, dass Trump mit solch beunruhigenden Aussagen aufhorchen ließ.
Ebenfalls als Gefahr für die künftige Sicherheit, was das Atomwaffenarsenal der USA angeht, sehen hochrangige Vertreter der US-Politik KI an. Vier Politiker, drei Demokraten und ein Republikaner, wollen ein Gesetz auf den Weg bringen, das es KI verbietet, Atomwaffen zu starten.
KI soll keine Atomwaffen starten dürfen
Der sogenannte „Nuclear Launch by Autonomous AI Act“ soll sicherstellen, „dass für den Start von Atomwaffen durch ein automatisiertes System ohne sinnvolle menschliche Kontrolle keine Bundesmittel verwendet werden“.
Wie US-Senator Edward J. Markey, einer der Initiatoren des Gesetzesvorschlags, weiter ausführte, sollen „Menschen allein die Macht haben, Atomwaffen zu befehlen, zu kontrollieren und zu starten – nicht Roboter“.
Menschlicher Faktor ist schon geregelt
Allerdings ist ohnehin schon geregelt, dass die möglichen Entscheidungen des US-Präsidenten in Hinblick auf einen möglichen Atomwaffeneinsatz von Menschen flankiert werden.
Dass die Politiker trotzdem noch einen eigenen Gesetzesvorschlag einbringen, sehen Beobachter:innen als Versuch, mehr Aufmerksamkeit auf das Thema Atomwaffen und KI zu lenken – insbesondere mit Seitenblick auf andere Atommächte wie China und Russland.
Militärische KI-Plattform von Palantir
Dass KI durchaus eine größere Rolle als militärische Entscheidungshilfe spielen könnte, zeigt die in der vergangenen Woche vorgestellte Artifical Intelligence Platform von Peter Thiels Firma Palantir.
Geht es nach dem Werbevideo, ist der menschliche Faktor in diesem System gering. Die KI spürt selbstständig feindliche Einheiten auf und „empfiehlt“ bestimmte Reaktionen, etwa einen Gegenangriff. Der Mensch muss dann nur noch auf den Knopf drücken, um das Ganze zu bestätigen.
Fehlerhafte KI als Basis für Entscheidungen?
Das Problem: Palantir hat für seine militärische KI-Plattform kein eigenes System entwickelt, sondern greift auf bestehende zurück, wie der Standard schreibt – inklusive deren Fehleranfälligkeit.