Das niederländische Rathenau-Institut hat mit dem Karlsruher Institut für Technologie (KIT) und dem Fraunhofer-Institut für System- und Innovationsforschung (ISI) eine Studie durchgeführt, die sich mit den vielfältigen schädlichen Auswirkungen von Deepfakes und deren Verhinderung beschäftigt. Beauftragt hatte die der Ausschuss für Technikfolgenabschätzung (STOA) des EU-Parlaments.
Deshalb sind Deepfakes schädlich
Deepfakes im Sinne der Studiendefinition sind zunehmend realistisch wirkende Fotos, Audios oder Videos, in denen Personen mithilfe von Systemen künstlicher Intelligenz in neue Kontexte gestellt werden. Dabei könne ihnen etwas in den Mund gelegt werden, das sie nie gesagt haben. Ebenso könnten sie an Orten auftauchen, an denen sie nie gewesen sind, oder Dinge tun, die sie nie getan haben.
Schon die Definition macht auf den ersten Blick klar, welches Schadpotenzial von solchen Darstellungen ausgehen muss. So verwundert es nicht, dass die Wissenschaftlerinnen und Wissenschaftler diesen computergenerierten Scheinrealitäten das Potenzial für „alle Arten von Betrug“ zusprechen. Am häufigsten sei dabei der Identitätsdiebstahl, vor allem in der Ausprägung, Gesichter von unbeteiligten Frauen mit denen von Darstellern in Porno-Videos auszutauschen. Dabei werde die Technik nicht nur immer besser, sondern vor allem auch immer billiger, was ihre Verbreitung treibe.
Auch Schadpotenzial über das Individuum hinaus
Neben den Schäden für Individuen sehen die Forschenden indes auch massives Schadpotenzial für die Wirtschaft und die Gesellschaft im Allgemeinen. Dabei könne das Spektrum von der Manipulation demokratischer Prozesse bis zu Unterbrechungen des Finanz-, Justiz- und Wissenschaftssystems reichen, warnen sie in einer jetzt vorgestellten Studie, über die Heise berichtet.
Neben dem einfacher werdenden Zugang zu Deepfake-Technologien sehen die Forschenden vor allem den Wandel der Medienlandschaft durch Plattformen wie soziale Netzwerke, die wachsende Bedeutung der visuellen Kommunikation und die zunehmende Verbreitung von Desinformation als beschleunigende Faktoren.
Beispielhaft arbeiten die Forschenden einige konkrete Angriffspunkte KI-gestützter Desinformation heraus. So könnte etwa ein fingiertes Video einer Politikerin nicht nur ihr persönlich schaden, sondern zugleich die Wahlchancen ihrer Partei schmälern. Letztlich könnte das das Vertrauen in demokratische Institutionen insgesamt schädigen. Gefälschte Audiodokumente könnten Gerichtsprozesse manipulieren und damit dem Justizsystem schaden.
Technische Lösungsansätze nur teilweise nützlich
Dabei verkennen die Studienverfassenden nicht, dass die für Deepfakes nötige KI auch positive Perspektiven schaffe, etwa neue Möglichkeiten für Kunstschaffende, für digitale Visualisierungen in Schulen oder Museen oder in der medizinischen Forschung. Klar sei damit eben, dass ihre Verwendung reguliert werden müsse.
Dabei könnten technische Lösungsansätze dem Problem nur zum Teil beikommen. Zwar gebe es Erkennungssoftware, jedoch sei die zu leicht zu täuschen. Dennoch plädieren die Forschenden dafür, soziale Medien wie Facebook, Twitter, Youtube und andere, aber auch konventionelle Medienkonzerne mit einer verschärften Überwachungspflicht, etwa per Filtersoftware, zu belegen. Die rechtliche Grundlage dafür sei mit dem Digital Services Act (DSA) bereits vorhanden.
Letztlich müsse aber auch das Individuum erreicht werden. Wir alle müssten lernen, „audiografischen Belegen mit höherer Skepsis“ zu begegnen. Helfen könnten dabei die Kennzeichnung vertrauenswürdiger Quellen und die verstärkte Förderung von Medienkompetenz, schlagen die Forschenden vor.