Von KI bis Werbung: Diese drei EU-Regulierungen für 2024 sollte man kennen
Zugegeben, EU-Gesetzesentwürfe und geplante Regelungen klingen nicht nach einer spannenden Abendlektüre, sondern nach viel Bürokratie und Bergen von Papier. Doch hinter scheinbar sperrigen Dingen wie dem Digital Markets Act verstecken sich nicht nur ganz konkrete Auswirkungen für Techunternehmen, sondern auch für uns Nutzer:innen. Unternehmen müssen uns gegenüber zum Beispiel transparenter werden und wir bekommen mehr Freiheiten. Es lohnt sich also, einen Blick in die EU-Regulierung zu wagen.
Artificial Intelligence Act
KI-Modelle wie ChatGPT oder Midjourney generieren Texte und Bilder, bearbeiten beides in Sekunden und werden schon jetzt eingesetzt, um zum Beispiel monotone Arbeiten zu übernehmen. Sie erleichtern uns damit den Arbeitsalltag. Aber KI-Modelle können, wie jede Technologie, auch für schädliche Zwecke eingesetzt und mit böser Absicht verwendet werden.
Dieser Artikel ist zuerst im t3n Magazin Nr. 74 erschienen, das sich im Schwerpunkt mit der Frage beschäftigt, wie nutzerfreundlich unsere Städte sind. Mehr zum Thema und dem Heft erfährst du hier.
Die Non-Profit-Organisation Center for AI Safety warnt zum Beispiel davor, dass KI auch für die Kriegsführung, die massenhafte Verbreitung von Falschinformationen oder die Manipulation von Wahlen genutzt werden könnte. Die EU hat sich daher vorgenommen, diesen Bereich zu regulieren und nimmt dabei eine Vorreiterrolle ein.
Schon im April 2021 hat die EU-Kommission einen ersten Entwurf des AI Acts vorgelegt, bis Ende 2023 sollen die sogenannten Trilog-Verhandlungen von Kommission, Rat und Parlament abgeschlossen sein und die finale Fassung des Gesetzes vorliegen. Höchste Zeit, denn beim aktuellen Entwicklungstempo von KI-Modellen ist zunehmend Eile geboten.
Der AI-Act betrifft neben kommerziellen Angeboten auch den öffentlichen Sektor oder den Einsatz für die Strafverfolgung. Er soll für Unternehmen gelten, die KI-Systeme in der EU anbieten oder in Betrieb nehmen wollen. Dabei ist es egal, ob die Anbieter in der EU oder einem Drittland sitzen.
Der bisherige Gesetzentwurf stuft KI in Risikoklassen ein: von „kein oder minimales Risiko“ bis zu „nicht akzeptables Risiko“. Anwendungen, die unter diese letzte Klasse fallen, sollen ganz verboten werden. Das betrifft zum Beispiel KI, die zur Manipulation von Menschen dienen, Kinder gefährden oder mit biometrischen Daten Nutzer:innen identifizieren.
Das Verbot soll sogar KI betreffen, mit denen Strafverfolgungsbehörden sonst automatisiert Gesichtserkennung bei der Videoüberwachung durchführen könnten. Wird eine KI als Hochrisikosystem eingestuft, muss von den Anbietern unter anderem technische Dokumentation und eine Risikomanagement durchgeführt werden. Aber auch für KI mit keinem oder minimalen Risiko soll eine Informationspflicht gelten. Heißt: Nutzer:innen können sich bei sämtlichen digitalen Angeboten transparent darüber informieren, ob und wie KI zum Einsatz kommt.
Digital Markets Act
Nicht nur KI-Anbieter will die EU regulieren, auch große Plattformen und Techkonzerne müssen bald strengeren Regeln folgen. Beim Digital Markets Act, auf Deutsch „Gesetz über digitale Märkte“, sind die Gremien auch schon deutlich weiter als beim AI Act: Schon ab März 2024 müssen sich ganze 22 Unternehmen anpassen, weil sie als sogenannte Gatekeeper eingestuft werden.
Als Gatekeeper gilt aus Sicht der EU, wer zum Beispiel eine erhebliche Auswirkung auf den Binnenmarkt hat oder eine große Anzahl von Nutzer:innen betreut. Firmen wie Alphabet (Google), Amazon, Apple, Meta oder Microsoft und deren Dienste zählen zu diesen Gatekeepern. Der Digital Markets Act soll unter anderem ein faireres Geschäftsumfeld schaffen. So schreibt er beispielsweise vor, dass Firmen ihre eigenen Produkte auf Marktplätzen nicht bevorzugen dürfen.
Im Falle von Apple hat das ganz konkrete Auswirkungen. So muss die Firma demnächst einen alternativen App Store für iOS und iPadOS anbieten. Wir Nutzer:innen können dann selbst entscheiden, wo und wie wir Apps auf iPhone und iPad installieren – ähnlich wie bisher schon am Mac.
Auch auf Meta hat das Gesetz Auswirkungen. So dürfen Großunternehmen Daten, die für einen bestimmten Zweck gesammelt wurden, nicht einfach für einen anderen Zweck verwenden. Daten aus Instagram dürfen also nicht einfach in das neue Netzwerk Threads fließen. Dass die Dienste aber aktuell noch über ein gemeinsames Konto verbunden sind, dürfte einer der Gründe sein, warum Nutzer:innen aus der EU momentan nicht auf Threads zugreifen können.
Verstößt eine Firma gegen das Gesetz, sind Strafen von bis zu zehn Prozent des weltweiten Umsatzes geplant. Wer die Regeln wiederholt nicht einhält, muss sogar mit 20 Prozent rechnen. Das klingt erst einmal nicht viel, aber bei Konzernen wie Apple oder Meta kommen so schnell zweistellige Milliardenbeträge zusammen.
Digital Services Act
Der Digital Services Act ist eng verbunden mit dem Digital Markets Act, beschäftigt sich allerdings nicht mit dem Wettbewerbsrecht, sondern blickt ganz konkret auf Onlineplattformen. Er gilt ab Januar 2024 für Internetanbieter genauso wie für Social-Media-Netzwerke oder Cloud-Dienste. Diese müssen unter anderem die Meldung von illegalen Inhalten auf ihren Plattformen erleichtern, aber auch transparenter bei der Moderation von Inhalten sein.
Wenn zum Beispiel X ein Posting entfernt oder ein Konto einschränkt, muss der Kurznachrichtendienst die Gründe dafür offenlegen. Nutzer:innen können die Entscheidung dann übrigens auch anfechten. Auch bei der Personalisierung von Inhalten gibt es mit dem Digital Services Act mehr Transparenz für die Nutzer:innen.
Die Plattformen müssen in Zukunft angeben, auf welcher Basis zum Beispiel ein Feed in sozialen Netzwerken sortiert und angezeigt wird, also den Algorithmus genauer erläutern. Außerdem muss es eine Option zur Deaktivierung von personalisierten Inhalten geben – das gilt auch für personalisierte Anzeigen. Dienste wie TikTok oder Instagram haben bereits reagiert und bieten inzwischen auch nicht personalisierte Feeds an.
Kinder und Jugendliche werden durch das Gesetz besonders berücksichtigt. So verbietet es zum Beispiel die gezielte Werbung an Minderjährige und erlegt Plattformen, die von Kindern genutzt werden, strenge Regeln auf. Sie müssen dann zum Beispiel spezielle Datenschutz- und Sicherheitseinstellungen anbieten.