
Über 100 zivilgesellschaftliche Organisationen, unter anderem Algorithm Watch, fordern von der EU-Kommission, Grundrechte im geplanten KI-Gesetz besser zu berücksichtigen. In einem offenen Brief kritisieren sie, das geplante Gesetz sei nicht gut genug, um Bürger:innen davor zu schützen, dass KI-Systeme ihre Grundrechte einschränken.
„Die Vorhersagen und Entscheidungen, die solche Systeme treffen, können falsch, diskriminierend oder anderweitig ungerecht sein und die Autonomie der Menschen oder das öffentliche Interesse unterminieren“, heißt es in dem Statement. Deshalb brauche ein Gesetz zur KI-Regulierung einen Fokus auf Grundrechte, Werte und demokratische Prozesse.
Die EU-Kommission hatte im April einen Vorschlag gemacht, wie Künstliche Intelligenz künftig in der EU überwacht und reguliert werden soll. Im Wesentlichen sieht der Vorschlag ein Stufen-System vor, das KI-Anwendungen in Risikoklassen einteilt und entsprechende Auflagen vorsieht.
Demnach sollen eindeutig bedrohliche Systeme verboten werden. Dazu gehören Social Scoring oder Sprachassistenten, die Kinder zu riskantem Verhalten animieren. Die zweite Kategorie umfasst Hochrisiko-Systeme aus den Bereichen der kritischen Infrastrukturen oder der öffentlichen Verwaltung. Sie sollen vor und während ihres Einsatzes geprüft werden. Für Systeme mit „begrenztem Risiko“ wie Chatbots gelten Transparenzverpflichtungen. Unkritische Systeme wie Spamfilter oder KI-gestützte Spiele fallen nicht unter die Auflagen.
Die Organisationen kritisieren, dass dieses System zu allgemein gehalten sei und außer Acht lasse, in welchem Kontext die Anwendung eingesetzt wird. Damit wirklich alle Systeme verboten werden, die Grundrechte gefährden, müssten mehr Systeme in die strengste Kategorie fallen – zum Beispiel die Erkennung von Emotionen oder Charakter anhand von Daten über körperliche Eigenschaften oder Nutzungsverhalten.
Auch biometrische Überwachung sollte nach Ansicht der Unterzeichner:innen gänzlich verboten werden. Bisher soll sie nur im Bereich der Strafverfolgung nicht mehr eingesetzt werden, wobei auch dafür Ausnahmen geplant sind. Auch Mitglieder des Europäischen Parlaments und der Europäische Datenschutzbeauftragte hatten bereits ein komplettes Verbot von Gesichtserkennung im öffentlichen Raum gefordert.
Auch den Einsatz von KI im Bereich der zweiten Kategorie, der Hochrisiko-Systeme, wollen die Organisationen strenger reguliert sehen. Sie fordern, dass Anwender solcher Systeme einen Bericht zum Einfluss der Anwendungen auf Grundrechte, Menschen, die Umwelt und das öffentliche Interesse veröffentlichen müssten. Das solle für alle gelten, die solche Systeme nutzen – nicht nur für jene, die sie entwickeln.
Über den Vorschlag der EU-Kommission beraten das Europäische Parlament und die Mitgliedstaaten. Sie können auch noch Änderungen einbringen.
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team