Die Organisation Hate Aid, die ursprünglich als Unterstützungsorgan für Betroffene von Hass-Rede und Diskriminierung gegründet worden war, sieht sich immer stärker auch in den Kampf gegen sogenannte Deepfake-Pornos involviert. Darunter sind pornografische Darstellungen zu verstehen, bei denen die Gesichter Betroffener in eindeutige sexuelle Aktivitäten einmontiert werden.
Kranke Fantasien mit KI täuschend echt umgesetzt
So wirkt es auf Betrachtende, als wären die Betroffenen tatsächlich Akteure dieser Aktivitäten. Mit modernen KI-Tools gelangen solche Montagen sogar in Bewegtbildern täuschend echt. Natürlich ist die Verbreitung solcher Darstellungen ohne die Zustimmung der angeblich Gezeigten eine Verletzung geltenden Rechts.
Das hält Internetnutzende nicht davon ab, solches Material in großer Zahl zu posten. Zahlen der Analysefirma Sensity AI, die in einem Bericht des Europaparlaments aus dem Juni 2021 (PDF)veröffentlicht wurden, zeigen, dass rund neun von zehn aller Deepfakes Porno-Aufnahmen – meist von Frauen – betreffen.
Das zeigt, dass die Diskussion um Deepfakes in den vergangenen Jahren in die falsche Richtung zielte. Zumeist wurden Deepfakes eher wegen ihrer potenziellen Gefährdung demokratischer Strukturen angegriffen. Sicherlich sind Falschmeldungen, die angeblich von echten Politikerinnen und Politikern vorgetragen werden, immer noch ein Risiko.
Nun aber stellen insbesondere Politikerinnen fest, dass sie zu häufig unfreiwillig zu Darstellerinnen in KI-Pornos avancieren. Dieses Schicksal teilen sie mit vielen weiblichen Personen, von denen es eine Fülle von Bildmaterialien gibt, wie etwa bei Influencerinnen oder Schauspielerinnen.
Bundesregierung soll scharfe Regeln für KI-Tools erlassen
Das will Hate Aid nicht länger akzeptieren und fordert die Bundesregierung, allen voran Digitalminister Volker Wissing (FDP), mit einer jüngst gestarteten Petition zum Handeln auf. Der solle regulatorisch sicherstellen, dass keine Apps zum Erstellen manipulierter Nacktaufnahmen mehr angeboten und beworben werden können.
KI-Apps mit entsprechenden Fähigkeiten sollten vielmehr nur noch dann in den App-Stores erhältlich sein, wenn deren Hersteller ausdrücklich Schutzmaßnahmen einbauen, die die Verwendung der Tools für die Generierung von Pornos verhindern.
Erst diese Woche hatte der Hersteller des Open-Source-KI-Text-zu-Bild-Generators Stable Diffusion eine neue Version seiner Software veröffentlicht, die Nutzenden erschwert, Nacktdarstellungen und pornografische Bilder zu erzeugen. Der Hersteller sah sich daraufhin einer Welle der Kritik ausgesetzt – wie The Verge berichtet.
Das dürfte wohl – nüchtern betrachtet – beweisen, dass die Petition genau das Richtige fordert.