Anzeige
Anzeige
News
Artikel merken

KI: Deepfakes sind eine Gefahr für die Demokratie – sagt eine EU-Studie

Eine im Auftrag des EU-Parlaments erstellte Studie zu den Auswirkungen sogenannter Deepfakes kommt zu klaren Forderungen. Die Forschenden schlagen verpflichtende Erkennungsfilter für Soziale Medien vor.

2 Min. Lesezeit
Anzeige
Anzeige

Etwas deeper sind Deepfakes dann doch. (Foto: Shutterstock / nito)

Das niederländische Rathenau-Institut hat mit dem Karlsruher Institut für Technologie (KIT) und dem Fraunhofer-Institut für System- und Innovationsforschung (ISI) eine Studie durchgeführt, die sich mit den vielfältigen schädlichen Auswirkungen von Deepfakes und deren Verhinderung beschäftigt. Beauftragt hatte die der Ausschuss für Technikfolgenabschätzung (STOA) des EU-Parlaments.

Deshalb sind Deepfakes schädlich

Anzeige
Anzeige

Deepfakes im Sinne der Studiendefinition sind zunehmend realistisch wirkende Fotos, Audios oder Videos, in denen Personen mithilfe von Systemen künstlicher Intelligenz in neue Kontexte gestellt werden. Dabei könne ihnen etwas in den Mund gelegt werden, das sie nie gesagt haben. Ebenso könnten sie an Orten auftauchen, an denen sie nie gewesen sind, oder Dinge tun, die sie nie getan haben.

Schon die Definition macht auf den ersten Blick klar, welches Schadpotenzial von solchen Darstellungen ausgehen muss. So verwundert es nicht, dass die Wissenschaftlerinnen und Wissenschaftler diesen computergenerierten Scheinrealitäten das Potenzial für „alle Arten von Betrug“ zusprechen. Am häufigsten sei dabei der Identitätsdiebstahl, vor allem in der Ausprägung, Gesichter von unbeteiligten Frauen mit denen von Darstellern in Porno-Videos auszutauschen. Dabei werde die Technik nicht nur immer besser, sondern vor allem auch immer billiger, was ihre Verbreitung treibe.

Anzeige
Anzeige

Auch Schadpotenzial über das Individuum hinaus

Neben den Schäden für Individuen sehen die Forschenden indes auch massives Schadpotenzial für die Wirtschaft und die Gesellschaft im Allgemeinen. Dabei könne das Spektrum von der Manipulation demokratischer Prozesse bis zu Unterbrechungen des Finanz-, Justiz- und Wissenschaftssystems reichen, warnen sie in einer jetzt vorgestellten Studie, über die Heise berichtet.

Anzeige
Anzeige

Neben dem einfacher werdenden Zugang zu Deepfake-Technologien sehen die Forschenden vor allem den Wandel der Medienlandschaft durch Plattformen wie soziale Netzwerke, die wachsende Bedeutung der visuellen Kommunikation und die zunehmende Verbreitung von Desinformation als beschleunigende Faktoren.

Beispielhaft arbeiten die Forschenden einige konkrete Angriffspunkte KI-gestützter Desinformation heraus. So könnte etwa ein fingiertes Video einer Politikerin nicht nur ihr persönlich schaden, sondern zugleich die Wahlchancen ihrer Partei schmälern. Letztlich könnte das das Vertrauen in demokratische Institutionen insgesamt schädigen. Gefälschte Audiodokumente könnten Gerichtsprozesse manipulieren und damit dem Justizsystem schaden.

Anzeige
Anzeige

Technische Lösungsansätze nur teilweise nützlich

Dabei verkennen die Studienverfassenden nicht, dass die für Deepfakes nötige KI auch positive Perspektiven schaffe, etwa neue Möglichkeiten für Kunstschaffende, für digitale Visualisierungen in Schulen oder Museen oder in der medizinischen Forschung. Klar sei damit eben, dass ihre Verwendung reguliert werden müsse.

Dabei könnten technische Lösungsansätze dem Problem nur zum Teil beikommen. Zwar gebe es Erkennungssoftware, jedoch sei die zu leicht zu täuschen. Dennoch plädieren die Forschenden dafür, soziale Medien wie Facebook, Twitter, Youtube und andere, aber auch konventionelle Medienkonzerne mit einer verschärften Überwachungspflicht, etwa per Filtersoftware, zu belegen. Die rechtliche Grundlage dafür sei mit dem Digital Services Act (DSA) bereits vorhanden.

Letztlich müsse aber auch das Individuum erreicht werden. Wir alle müssten lernen, „audiografischen Belegen mit höherer Skepsis“ zu begegnen. Helfen könnten dabei die Kennzeichnung vertrauenswürdiger Quellen und die verstärkte Förderung von Medienkompetenz, schlagen die Forschenden vor.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Schreib den ersten Kommentar!
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige