Anzeige
Anzeige
MIT Technology Review Analyse

Generative KI fürs Militär: Warum der Strategiewechsel für OpenAI kein Widerspruch ist

Eine neue Partnerschaft mit dem Militärtechnik-Startup Anduril, die kürzlich angekündigt wurde, könnte GPT-4o und Co. auf das Schlachtfeld bringen. Damit hat OpenAI in nur einem Jahr seine Position grundlegend verändert.

Von MIT Technology Review Online
6 Min.
Artikel merken
Anzeige
Anzeige

OpenAI bald auf beim Militär-Sektor aktiv? (Bild: Shutterstock | Svet foto).

Anfang 2024 waren die Regeln von OpenAI zur Nutzung seiner Technologie durch Streitkräfte eindeutig: Das Unternehmen verbot jedem, seine Modelle für „Waffenentwicklung“ oder „militärische Anwendungen und Kriegsführung“ zu verwenden. Doch diese Haltung änderte sich schnell: Bereits am 10. Januar berichtete das Magazin The Intercept, dass OpenAI diese Beschränkungen abgemildert habe und nun eine andere Formulierung gelte. Es sei jetzt jedem Nutzer und jeder Nutzerin untersagt, die Technologie einzusetzen, um „sich selbst oder anderen zu schaden“. Waffen zu entwickeln oder zu verwenden, die andere verletzen oder Eigentum zerstören, sei verboten.

Anzeige
Anzeige

OpenAI erklärte kurz darauf, dass es mit dem US-Pentagon bei Cybersicherheitssoftware zusammenarbeiten werde, aber eben nicht bei Waffen. In einem im Oktober veröffentlichten Blogbeitrag teilte das Unternehmen dann mit, dass es im Bereich der nationalen Sicherheit arbeiten wird und argumentierte dabei, dass KI in den richtigen Händen helfen könne, „Menschen zu schützen, Gegner abzuschrecken und sogar zukünftige Konflikte zu verhindern“. Und jetzt erfolgte jüngst der nächste Schritt: OpenAI kündigte an, dass seine Technologie direkt auf dem Schlachtfeld eingesetzt werden darf.

OpenAI und Anduril zur Abwehr von Drohnenangriffen

Das Unternehmen schloss eine Partnerschaft mit dem Verteidigungstechnologieunternehmen Anduril, einem Hersteller von KI-gesteuerten Drohnen, Radarsystemen und Raketen, um die Streitkräfte der USA und ihrer Verbündeten bei der Abwehr von Drohnenangriffen zu unterstützen. OpenAI wird dabei helfen, KI-Modelle zu entwickeln, die „zeitkritische Daten schnell synthetisieren, die Belastung menschlicher Operatoren reduzieren und das Situationsbewusstsein verbessern“. So will man feindliche Drohnen besser abschießen, heißt es in der Ankündigung.

Anzeige
Anzeige

Einzelheiten wurden nicht bekannt gegeben, aber das Programm wird sich laut Liz Bourgeois, einer Sprecherin von OpenAI, auf den Schutz von US-Personal und US-Einrichtungen vor unbemannten Luftangriffen beschränken. „Diese Partnerschaft steht im Einklang mit unserer Politik und beinhaltet nicht die Nutzung unserer Technologie zur Entwicklung von Systemen, die anderen schaden sollen“, sagte sie. Eine Sprecherin von Anduril machte hingegen keine genauen Angaben zu den Basen auf der ganzen Welt, in denen die Modelle eingesetzt werden sollen. Sie sagte aber, dass die Technologie dabei helfen werde, Drohnen zu erkennen und zu verfolgen und die Zeit zu reduzieren, die Militärangehörige mit „langweiligen“ Aufgaben verbringen.

OpenAI bekennt sich offen zur Arbeit für nationale Sicherheit

Die Politik von OpenAI, die die militärische Nutzung seiner Technologie bislang verbot, wurde in weniger als einem Jahr aufgeweicht. Als das Unternehmen Anfang dieses Jahres seine einst klare Regel entschärfte, war es einem OpenAI-Sprecher zufolge nur möglich, in begrenzten Fällen mit dem Militär zusammenzuarbeiten, etwa in den Bereichen Cybersicherheit, Selbstmordprävention und Katastrophenhilfe.

Anzeige
Anzeige

Jetzt bekennt sich OpenAI offen zu seiner Arbeit im Bereich der nationalen Sicherheit. Wenn die Zusammenarbeit mit dem Militär oder mit Unternehmen der Verteidigungstechnologie dazu beitragen kann, dass demokratische Länder den Wettlauf um die KI dominieren, so das Unternehmen, dann steht dies nicht im Widerspruch zu OpenAIs Mission. Die soll dafür sorgen, dass die Vorteile der KI allgemein genutzt werden. Die Arbeit werde sogar dazu beitragen, diese Aufgabe besser zu erfüllen, hieß es. Aber täuschen wir uns nicht: Dies ist ein großer Unterschied zu der Position, die die Firma noch vor einem Jahr eingenommen hat.

Um zu verstehen, wie schnell sich dieser Strategiewechsel vollzog, muss man wissen, dass – während das Unternehmen in seiner Herangehensweise an den Bereich der nationalen Sicherheit schwankte –, andere in der Technologiebranche sich geradezu darauf stürzten. Risikokapitalfirmen haben ihre Investitionen in Verteidigungstechnologien im Jahr 2021 auf 40 Milliarden US-Dollar mehr als verdoppelt, nachdem Firmen wie Anduril und Palantir bewiesen hatten, dass das Pentagon mit etwas Überzeugungsarbeit (und einigen Rechtsstreitigkeiten) viel Geld für neue Technologien ausgeben würde. Der Widerstand von Silicon-Valley-Mitarbeitern gegen die Arbeit im Bereich der Kriegsführung (am deutlichsten spürbar bei den Arbeitsniederlegungen bei Google im Jahr 2018) hat sich für viele spätestens gelegt, als Russland 2022 in die Ukraine einmarschierte. Mehrere Führungskräfte aus der Verteidigungsbranche meinen, dass die „Eindeutigkeit“ dieses Krieges OpenAI geholfen hat, sowohl Investitionen als auch Talente anzuziehen.

Anzeige
Anzeige

In gewisser Weise holt OpenAI hier also gerade auf, indem es in den Verteidigungsbereich zieht. Der Unterschied besteht darin, dass sich die Unternehmen im Dunstkreis des Pentagon bewusst sind, dass sie in der Kriegsführung tätig sind, und dass sie ein Erbe als gemeinnütziges (KI-)Forschungsunternehmen nicht so schnell verleugnen müssen. Seit seiner Gründungsurkunde hat sich OpenAI als Organisation positioniert, die sich dafür einsetzt, dass künstliche Intelligenz der gesamten Menschheit zugutekommt. Das Unternehmen hatte öffentlich erklärt, dass eine Zusammenarbeit mit dem Militär dieser Mission widersprechen würde.

Gefahr aus China

In einem Blogeintrag vom 24. Oktober wurde ein neuer Weg eingeschlagen, der versucht, die Bereitschaft von OpenAI, im Verteidigungsbereich zu arbeiten, mit ihren erklärten Werten in Einklang zu bringen. Unter dem Titel „OpenAI’s approach to AI and national security“ (OpenAIs Ansatz bei KI und nationaler Sicherheit) wurde das Essay am selben Tag veröffentlicht, an dem das Weiße Haus sein Nationales Sicherheitsmemorandum zu KI herausgab. Darin wird gefordert, den Einsatz von KI zu stärken, auch um die Konkurrenz aus China abzuwehren.

„Wir glauben, dass eine demokratische Vision für KI unerlässlich ist, um ihr volles Potenzial zu erschließen und sicherzustellen, dass ihre Vorteile allgemein genutzt werden“, schrieb OpenAI und griff damit ähnliche Formulierungen aus dem Memorandum des Weißen Hauses auf. „Wir glauben, dass Demokratien weiterhin die Führung in der KI-Entwicklung übernehmen sollten, geleitet von Werten wie Freiheit, Fairness und der Achtung der Menschenrechte.“

Anzeige
Anzeige

Der Text zeigt eine Reihe von Möglichkeiten auf, wie OpenAI bei der Verfolgung dieses Ziels helfen könnte, einschließlich der Bemühungen, „Übersetzungs- und Zusammenfassungsaufgaben zu rationalisieren und zivile Schäden zu untersuchen und zu lindern“, wobei die Technologie nicht dazu verwendet werden darf, „Menschen zu schaden, Eigentum zu zerstören oder Waffen zu entwickeln“. Es war vor allem eine Botschaft von OpenAI, dass es bei der Arbeit für die nationale Sicherheit an Bord ist.

Lukrative Zusammenarbeit mit dem US-Verteidigungsministerium

Die neuen Richtlinien betonen „Flexibilität und die Einhaltung von Gesetzen“, sagt Heidy Khlaaf, leitende KI-Wissenschaftlerin am AI Now Institute und Expertin für Sicherheit, die zusammen mit OpenAI im Jahr 2022 ein Paper über die möglichen Gefahren seiner Technologie in Kontexten wie dem Militär verfasst hat. Der Schwenk des Unternehmens „signalisiert letztlich die Akzeptanz der Durchführung von Aktivitäten im Zusammenhang mit Militär und Kriegsführung, wie es das Pentagon und das US-Militär für richtig halten“, sagt sie.

Amazon, Google und OpenAIs Partner und Investor Microsoft konkurrieren seit Jahren um die Cloud-Computing-Verträge des Pentagons. Diese Unternehmen haben gelernt, dass die Zusammenarbeit mit dem Verteidigungsministerium unglaublich lukrativ sein kann. Der Schwenk von OpenAI, der zu einem Zeitpunkt erfolgt, an dem das Unternehmen mit Verlusten in Höhe von fünf Milliarden rechnet und Berichten zufolge neue Einnahmequellen wie Werbung erkundet, könnte ein Zeichen sein, dass es ein Stück dieses Kuchens haben möchte.

Anzeige
Anzeige

Auch die Beziehungen zwischen Big Tech und dem Militär lösen nicht mehr die Empörung und das kritische Hinterfragen aus, die sie einst auslösten. Aber OpenAI ist kein Cloud-Anbieter, und die Technologie, die es entwickelt, kann viel mehr als nur Daten speichern und abrufen. Mit dieser neuen Partnerschaft verspricht OpenAI, dabei zu helfen, Daten vom Schlachtfeld zu sortieren, Erkenntnisse über Bedrohungen zu gewinnen und den Entscheidungsprozess im Krieg schneller und effizienter zu gestalten.

„Verteidigungswaffen sind immer noch Waffen“

Die Aussagen von OpenAI zur nationalen Sicherheit werfen aber mehr Fragen auf, als sie beantworten. Das Unternehmen will den Schaden für die Zivilbevölkerung mindern, aber für welche Zivilisten? Zählt das Einbringen von KI-Modellen in ein Programm, das Drohnen abschießt, nicht als Entwicklung von Waffen, die Menschen schaden könnten? „Verteidigungswaffen sind in der Tat immer noch Waffen“, sagt Khlaaf. Sie „können oft auch offensiv eingesetzt werden, je nach Ort und Ziel einer Mission“.

Abgesehen von diesen Fragen bedeutet die Arbeit im Verteidigungsbereich, dass das weltweit führende Unternehmen für Künstliche Intelligenz, das in der Branche einen großen Einfluss hat und lange darüber nachdachte, wie man verantwortungsvoll mit KI umgeht, nun in einer wehrtechnischen Branche arbeitet, die nach anderen Regeln spielt. In diesem System, in dem das US-Militär der Kunde ist, können Technologieunternehmen nicht einfach allein entscheiden, wie ihre Produkte eingesetzt werden.

Dieser Artikel stammt von James O’Donnell. Er ist Redakteur bei der US-amerikanischen Ausgabe von MIT Technology Review. O’Donnell schreibt regelmäßig über Hardware-, aber auch KI-Themen.
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige