
Seitdem die EU-Kommission im April 2022 einen Gesetzentwurf für die Regulierung von künstlicher Intelligenz vorgelegt hatte, wurde der Inhalt des sogenannten AI Act heftig diskutiert. Was gilt als künstliche Intelligenz – und was darf sie, um der Gesellschaft zu nutzen, gleichzeitig aber keinen Schaden anzurichten?
Der Release des OpenAI-Chatbots Chat-GPT hatte die Debatte weiter angeheizt, im Dezember 2022 präsentierte dann der Europäische Rat einen neuen Vorschlag. Jetzt ist der nächste Schritt im Gesetzgebungsverfahren über die Bühne gegangen: Die zuständigen Ausschüsse haben sich geeinigt, welche Punkte noch nachjustiert werden sollen.
AI Act wird verschärft: Keine biometrischen Erkennungssysteme im öffentlichen Raum?
84 Mitglieder des Binnenmarktausschusses und des Ausschusses für bürgerliche Freiheiten (IMCO und LIBE) haben sich am Vormittag des 11. Mai für den neuen Verhandlungsrahmen ausgesprochen, sieben stimmten dagegen und zwölf enthielten sich. Parlamentsmitglied Dragos Tudorache sagte im Vorfeld der Abstimmung, es handle sich um einen „heiklen Deal“. „Aber es ist ein Paket, das meines Erachtens allen, die an diesen Verhandlungen beteiligt waren, etwas bringt.“
Kritiker:innen hatten in den bisherigen Entwürfen besonders eine fehlende Regulierung von biometrischer Überwachung, aber auch die Nutzung von KI-Systemen zu militärischen Zwecken, zur Wahrung der „nationalen Sicherheit“ und an den EU-Grenzen angeprangert. Zudem war vielen die Definition, was als KI-Anwendung gilt, nicht ausgefeilt genug.
Zumindest einige dieser Punkte wurden jetzt von den Ausschüssen aufgegriffen: So sollen beispielsweise biometrische Erkennungssysteme in Echtzeit im öffentlich zugänglichen Raum in der EU künftig verboten sein. Im Nachhinein dürfen sie allerdings trotzdem von Strafverfolgungsbehörden zur „Verfolgung schwerer Straftaten“ genutzt werden, wenn eine richterliche Genehmigung vorliegt.
Der AI Act soll außerdem biometrische Erkennungssysteme, die Merkmale wie Geschlecht oder ethnische Zugehörigkeit verwenden, prädiktive Polizeisysteme, Systeme, die Emotionen zum Zweck der Strafverfolgung erkennen, und das Auslesen von biometrischen Daten aus sozialen Medien oder Videoüberwachungsaufnahmen zur Erstellung von Gesichtserkennungsdatenbanken verbieten. Damit wolle man verhindern, dass künstliche Intelligenz manipulativ eingesetzt werde, um die Schwachstellen von Menschen auszunutzen oder Social Scoring zu betreiben.
AI Act: So geht’s weiter mit dem Gesetz für ChatGPT und Co.
Für kommerzielle KI-Anwendungen sollen, wie bisher bereits geplant, Risikokategorien eingeführt werden, die darüber entscheiden, welche Auflagen für Betreiber:innen gelten. Mit dem neuen Entwurf fallen KI-Anwendungen in die Hochrisikokategorie, wenn sie ein erhebliches Risiko für die Gesundheit, die Sicherheit oder die Grundrechte von Menschen darstellen.
Schon länger ist klar, dass der OpenAI-Chatbot ChatGPT durch den AI Act stark reguliert werden dürfte – weil er Texte erzeugt, von denen man fälschlicherweise annehmen könnte, sie seien menschengemacht. Für generative Foundation-Modelle wie GPT sieht der neue Entwurf jetzt noch zusätzliche Anforderungen vor: Es muss nicht nur transparent gemacht werden, welche Inhalte von einer KI-Anwendung generiert wurden, die Tools müssen auch von vornherein so konzipiert sein, dass sie „keine illegalen Inhalte“ generieren „und keine Zusammenfassungen urheberrechtlich geschützter Daten veröffentlichen“. Zudem muss klar sein, mit welchen Daten die Modelle trainiert wurden.
Um Innovation zu fördern, sollen KI-Komponenten, die unter Open-Source-Lizenzen zur Verfügung gestellt werden oder im Rahmen von Forschungstätigkeiten zum Einsatz kommen, allerdings gesondert behandelt werden.
Bis aus dem verschärften Entwurf tatsächlich ein Gesetz wird, wird sich noch einiges tun. Voraussichtlich Mitte Juni wird der neue Vorschlag dem Plenum des EU-Parlaments zur Abstimmung vorgelegt. Gibt es dort grünes Licht, startet der sogenannte Trilog, bei dem Parlament, Ministerrat und Kommission über das finale Gesetz verhandeln. Tritt das in Kraft, hätten betroffene Parteien zwei Jahre Schonfrist, um den Regulierungen gerecht zu werden. Bislang gibt es weltweit keine derart umfassenden Regularien zum Gebrauch von KI-Anwendungen.