Generative KI fürs Militär: Warum der Strategiewechsel für OpenAI kein Widerspruch ist
Anfang 2024 waren die Regeln von OpenAI zur Nutzung seiner Technologie durch Streitkräfte eindeutig: Das Unternehmen verbot jedem, seine Modelle für „Waffenentwicklung“ oder „militärische Anwendungen und Kriegsführung“ zu verwenden. Doch diese Haltung änderte sich schnell: Bereits am 10. Januar berichtete das Magazin The Intercept, dass OpenAI diese Beschränkungen abgemildert habe und nun eine andere Formulierung gelte. Es sei jetzt jedem Nutzer und jeder Nutzerin untersagt, die Technologie einzusetzen, um „sich selbst oder anderen zu schaden“. Waffen zu entwickeln oder zu verwenden, die andere verletzen oder Eigentum zerstören, sei verboten.
OpenAI erklärte kurz darauf, dass es mit dem US-Pentagon bei Cybersicherheitssoftware zusammenarbeiten werde, aber eben nicht bei Waffen. In einem im Oktober veröffentlichten Blogbeitrag teilte das Unternehmen dann mit, dass es im Bereich der nationalen Sicherheit arbeiten wird und argumentierte dabei, dass KI in den richtigen Händen helfen könne, „Menschen zu schützen, Gegner abzuschrecken und sogar zukünftige Konflikte zu verhindern“. Und jetzt erfolgte jüngst der nächste Schritt: OpenAI kündigte an, dass seine Technologie direkt auf dem Schlachtfeld eingesetzt werden darf.
OpenAI und Anduril zur Abwehr von Drohnenangriffen
Das Unternehmen schloss eine Partnerschaft mit dem Verteidigungstechnologieunternehmen Anduril, einem Hersteller von KI-gesteuerten Drohnen, Radarsystemen und Raketen, um die Streitkräfte der USA und ihrer Verbündeten bei der Abwehr von Drohnenangriffen zu unterstützen. OpenAI wird dabei helfen, KI-Modelle zu entwickeln, die „zeitkritische Daten schnell synthetisieren, die Belastung menschlicher Operatoren reduzieren und das Situationsbewusstsein verbessern“. So will man feindliche Drohnen besser abschießen, heißt es in der Ankündigung.
Einzelheiten wurden nicht bekannt gegeben, aber das Programm wird sich laut Liz Bourgeois, einer Sprecherin von OpenAI, auf den Schutz von US-Personal und US-Einrichtungen vor unbemannten Luftangriffen beschränken. „Diese Partnerschaft steht im Einklang mit unserer Politik und beinhaltet nicht die Nutzung unserer Technologie zur Entwicklung von Systemen, die anderen schaden sollen“, sagte sie. Eine Sprecherin von Anduril machte hingegen keine genauen Angaben zu den Basen auf der ganzen Welt, in denen die Modelle eingesetzt werden sollen. Sie sagte aber, dass die Technologie dabei helfen werde, Drohnen zu erkennen und zu verfolgen und die Zeit zu reduzieren, die Militärangehörige mit „langweiligen“ Aufgaben verbringen.
OpenAI bekennt sich offen zur Arbeit für nationale Sicherheit
Die Politik von OpenAI, die die militärische Nutzung seiner Technologie bislang verbot, wurde in weniger als einem Jahr aufgeweicht. Als das Unternehmen Anfang dieses Jahres seine einst klare Regel entschärfte, war es einem OpenAI-Sprecher zufolge nur möglich, in begrenzten Fällen mit dem Militär zusammenzuarbeiten, etwa in den Bereichen Cybersicherheit, Selbstmordprävention und Katastrophenhilfe.
Jetzt bekennt sich OpenAI offen zu seiner Arbeit im Bereich der nationalen Sicherheit. Wenn die Zusammenarbeit mit dem Militär oder mit Unternehmen der Verteidigungstechnologie dazu beitragen kann, dass demokratische Länder den Wettlauf um die KI dominieren, so das Unternehmen, dann steht dies nicht im Widerspruch zu OpenAIs Mission. Die soll dafür sorgen, dass die Vorteile der KI allgemein genutzt werden. Die Arbeit werde sogar dazu beitragen, diese Aufgabe besser zu erfüllen, hieß es. Aber täuschen wir uns nicht: Dies ist ein großer Unterschied zu der Position, die die Firma noch vor einem Jahr eingenommen hat.
Um zu verstehen, wie schnell sich dieser Strategiewechsel vollzog, muss man wissen, dass – während das Unternehmen in seiner Herangehensweise an den Bereich der nationalen Sicherheit schwankte –, andere in der Technologiebranche sich geradezu darauf stürzten. Risikokapitalfirmen haben ihre Investitionen in Verteidigungstechnologien im Jahr 2021 auf 40 Milliarden US-Dollar mehr als verdoppelt, nachdem Firmen wie Anduril und Palantir bewiesen hatten, dass das Pentagon mit etwas Überzeugungsarbeit (und einigen Rechtsstreitigkeiten) viel Geld für neue Technologien ausgeben würde. Der Widerstand von Silicon-Valley-Mitarbeitern gegen die Arbeit im Bereich der Kriegsführung (am deutlichsten spürbar bei den Arbeitsniederlegungen bei Google im Jahr 2018) hat sich für viele spätestens gelegt, als Russland 2022 in die Ukraine einmarschierte. Mehrere Führungskräfte aus der Verteidigungsbranche meinen, dass die „Eindeutigkeit“ dieses Krieges OpenAI geholfen hat, sowohl Investitionen als auch Talente anzuziehen.
In gewisser Weise holt OpenAI hier also gerade auf, indem es in den Verteidigungsbereich zieht. Der Unterschied besteht darin, dass sich die Unternehmen im Dunstkreis des Pentagon bewusst sind, dass sie in der Kriegsführung tätig sind, und dass sie ein Erbe als gemeinnütziges (KI-)Forschungsunternehmen nicht so schnell verleugnen müssen. Seit seiner Gründungsurkunde hat sich OpenAI als Organisation positioniert, die sich dafür einsetzt, dass künstliche Intelligenz der gesamten Menschheit zugutekommt. Das Unternehmen hatte öffentlich erklärt, dass eine Zusammenarbeit mit dem Militär dieser Mission widersprechen würde.
Gefahr aus China
In einem Blogeintrag vom 24. Oktober wurde ein neuer Weg eingeschlagen, der versucht, die Bereitschaft von OpenAI, im Verteidigungsbereich zu arbeiten, mit ihren erklärten Werten in Einklang zu bringen. Unter dem Titel „OpenAI’s approach to AI and national security“ (OpenAIs Ansatz bei KI und nationaler Sicherheit) wurde das Essay am selben Tag veröffentlicht, an dem das Weiße Haus sein Nationales Sicherheitsmemorandum zu KI herausgab. Darin wird gefordert, den Einsatz von KI zu stärken, auch um die Konkurrenz aus China abzuwehren.
„Wir glauben, dass eine demokratische Vision für KI unerlässlich ist, um ihr volles Potenzial zu erschließen und sicherzustellen, dass ihre Vorteile allgemein genutzt werden“, schrieb OpenAI und griff damit ähnliche Formulierungen aus dem Memorandum des Weißen Hauses auf. „Wir glauben, dass Demokratien weiterhin die Führung in der KI-Entwicklung übernehmen sollten, geleitet von Werten wie Freiheit, Fairness und der Achtung der Menschenrechte.“
Der Text zeigt eine Reihe von Möglichkeiten auf, wie OpenAI bei der Verfolgung dieses Ziels helfen könnte, einschließlich der Bemühungen, „Übersetzungs- und Zusammenfassungsaufgaben zu rationalisieren und zivile Schäden zu untersuchen und zu lindern“, wobei die Technologie nicht dazu verwendet werden darf, „Menschen zu schaden, Eigentum zu zerstören oder Waffen zu entwickeln“. Es war vor allem eine Botschaft von OpenAI, dass es bei der Arbeit für die nationale Sicherheit an Bord ist.
Lukrative Zusammenarbeit mit dem US-Verteidigungsministerium
Die neuen Richtlinien betonen „Flexibilität und die Einhaltung von Gesetzen“, sagt Heidy Khlaaf, leitende KI-Wissenschaftlerin am AI Now Institute und Expertin für Sicherheit, die zusammen mit OpenAI im Jahr 2022 ein Paper über die möglichen Gefahren seiner Technologie in Kontexten wie dem Militär verfasst hat. Der Schwenk des Unternehmens „signalisiert letztlich die Akzeptanz der Durchführung von Aktivitäten im Zusammenhang mit Militär und Kriegsführung, wie es das Pentagon und das US-Militär für richtig halten“, sagt sie.
Amazon, Google und OpenAIs Partner und Investor Microsoft konkurrieren seit Jahren um die Cloud-Computing-Verträge des Pentagons. Diese Unternehmen haben gelernt, dass die Zusammenarbeit mit dem Verteidigungsministerium unglaublich lukrativ sein kann. Der Schwenk von OpenAI, der zu einem Zeitpunkt erfolgt, an dem das Unternehmen mit Verlusten in Höhe von fünf Milliarden rechnet und Berichten zufolge neue Einnahmequellen wie Werbung erkundet, könnte ein Zeichen sein, dass es ein Stück dieses Kuchens haben möchte.
Auch die Beziehungen zwischen Big Tech und dem Militär lösen nicht mehr die Empörung und das kritische Hinterfragen aus, die sie einst auslösten. Aber OpenAI ist kein Cloud-Anbieter, und die Technologie, die es entwickelt, kann viel mehr als nur Daten speichern und abrufen. Mit dieser neuen Partnerschaft verspricht OpenAI, dabei zu helfen, Daten vom Schlachtfeld zu sortieren, Erkenntnisse über Bedrohungen zu gewinnen und den Entscheidungsprozess im Krieg schneller und effizienter zu gestalten.
„Verteidigungswaffen sind immer noch Waffen“
Die Aussagen von OpenAI zur nationalen Sicherheit werfen aber mehr Fragen auf, als sie beantworten. Das Unternehmen will den Schaden für die Zivilbevölkerung mindern, aber für welche Zivilisten? Zählt das Einbringen von KI-Modellen in ein Programm, das Drohnen abschießt, nicht als Entwicklung von Waffen, die Menschen schaden könnten? „Verteidigungswaffen sind in der Tat immer noch Waffen“, sagt Khlaaf. Sie „können oft auch offensiv eingesetzt werden, je nach Ort und Ziel einer Mission“.
Abgesehen von diesen Fragen bedeutet die Arbeit im Verteidigungsbereich, dass das weltweit führende Unternehmen für Künstliche Intelligenz, das in der Branche einen großen Einfluss hat und lange darüber nachdachte, wie man verantwortungsvoll mit KI umgeht, nun in einer wehrtechnischen Branche arbeitet, die nach anderen Regeln spielt. In diesem System, in dem das US-Militär der Kunde ist, können Technologieunternehmen nicht einfach allein entscheiden, wie ihre Produkte eingesetzt werden.