Trump kippt KI-Regulierung: Das wird am Ende auch der Branche schaden

Der ehemalige und neue US-Präsident Donald Trump wurde schnell aktiv und nahm die Executive Order 14110 zur Regulierung von KI-Modellen zurück. (Foto: Frederic Legrand -Comeo / Shutterstock)
Es war eine der ersten Amtshandlungen des neuen US-Präsidenten, die Richtlinien für die verantwortungsvolle Entwicklung von KI zu kippen, die sein Vorgänger Joe Biden im Herbst 2023 aufgestellt hatte. Laut Bidens damaliger Anordnung mussten Entwickler von Modellen, die potenziell gefährlich für die nationale Sicherheit, Wirtschaft oder Gesundheit werden könnten, die US-Regierung schon über das Training dieser Modelle regelmäßig unterrichten. Außerdem sollten sie die Ergebnisse von Sicherheitstests mit den Behörden teilen. Diese Executive Order 14110 ist jetzt Geschichte und an ihre Stelle tritt – nichts.
Das Trump-Lager behauptet zwar, dass die Verordnung gekippt wurde, weil sie „Innovation behindert“, und damit die USA im Wettlauf mit China langsamer gemacht habe. Im Kern geht es aber nicht um Geschwindigkeit – es geht um Geld. Sicherheit kostet. Sie kostet Stellen, Rechenzeit und Energie. Und all das fällt jetzt weg.
Tief im Inneren von ChatGPT schlummert kriminelle Energie
Und das wird, da nehme ich Wetten an, früher oder später fatale Folgen haben. Denn große KI-Modelle sind darauf trainiert, einfach nur das nächste (laut den Trainingsdaten wahrscheinlichste) Token vorherzusagen, ganz egal, was das ist. Dass die darüber liegenden Anwendungen wie ChatGPT im Regelfall keine rassistischen Sprüche machen oder Anleitungen zum Bombenbau liefern, liegt nur daran, dass sie in zusätzlichen Trainings gelernt haben, nur ganz bestimmte Outputs tatsächlich an die User weiterzugeben. Mit anderen Worten: Tief im Inneren steckt auch in Claude oder ChatGPT oder anderen jede Menge kriminelle Energie und Menschenverachtung.
Und die lässt sich schon jetzt herauslocken. So verwenden Cyberkriminelle Sprachmodelle zum Beispiel für Phishing Mails oder als Programmierhilfe für Schadcode, lassen sich Sprachmodelle durch manipulierte Websites mit Prompt Injections für bösartige Zwecke nutzen oder KI-Modelle durch vergiftete Trainingsdaten mit Schläfer-Agenten infizieren. Und an sich harmlose Modelle entwickeln Rezepturen für die Herstellung von Chemiewaffen.
Wenn die KI-Regulierung wegfällt
Fallen jetzt sämtliche Schranken bei der Regulierung, werden die Modelle weder sicherer noch zuverlässiger. Früher oder später wird das auch den großen KI-Unternehmen auf die Füße fallen.
Man darf im Übrigen gespannt sein, wie die Unterzeichner des offenen Briefes von 2023 auf diese Deregulierung reagieren, die ja vor zwei Jahren noch eindringlich vor den Gefahren einer unkontrollierten Superintelligenz gewarnt haben. Ich vermute, sie werden sich nicht an ihre damalige Empfehlung halten, sondern jetzt erst recht ungebremst Vollgas geben. Was kann schon schiefgehen? Der TÜV ist ja auch erst gegründet worden, als den Leuten die Dampfmaschinen um die Ohren geflogen sind.
Es ist ganz wichtig, dass der Staat möglichst viel reguliert, damit die Unternehmen möglichst unfrei agieren können. Das fördert nämlich Kreativität und sorgt dafür, dass man auch international gut aufgestellt ist. Gerade im Vergleich zu Ländern wie China, die sehr viel Geld in diese Technologien stecken, sollte man im eigenen Land den privaten Sektor stark regulieren. Könnte ja passieren, dass man ohne große Kosten Spitzenreiter bleibt! Warum nicht gleich KI verbieten? Das würde noch mehr Innovation fördern.