Anzeige
Anzeige
News
Artikel merken

Reddit, Insta, Onlyfans: Social Media wird zum Marktplatz für KI-generierte „Aktbilder“

Reddit wird zum Marktplatz für Fake-Aktbilder, die mit KI erzeugt werden. Die Ersteller generieren die Aktbilder und verkaufen sie.

3 Min. Lesezeit
Anzeige
Anzeige
Ein Reddit-Post vom KI-generierten Model namens Claudia. Einen Hinweis, dass es sich nicht um ein echtes Model handelt, gibt es nicht. (Grafik: Reddit/t3n)

KI-generierte „Aktbilder“ werden über diverse soziale Plattformen verkauft. Dabei ist oft nicht transparent erwähnt, dass die Bilder nicht von echten Akt-Modellen stammen, sondern von KI erzeugt wurden. 

Anzeige
Anzeige

Mit Stable Diffusion zu Pseudo-Pornografie und Geld

Die Washington Post (WP) hat einige Models ausfindig gemacht, die nach einiger Analyse als KI-generiert erkennbar waren – beispielsweise weil Muttermale in jedem Foto an anderer Stelle saßen. Einige Ersteller:innen hinter den Accounts antworteten auf die Anfragen: Mit Stable Diffusion sei es sehr einfach, die Bilder zu erstellen.

Ein Nutzer generiert Fetisch-Bilder von erwachsenen Frauen, die Windeln tragen. Er glaube nicht, dass es seine regulären Kund:innen überhaupt interessiert. Er würde nicht davon ausgehen, dass Menschen, die er im Internet sieht, auch genauso im realen Leben seien. „Wenn sie nicht echt sind, wen interessiert’s?“, sagte er gegenüber der WP.

Anzeige
Anzeige

Reddit, Insta, Onlyfans

Auf Reddit, Instagram, Twitter und Onlyfans zeigen die Accounts KI-generierte Bilder von Frauen – mal mehr, mal weniger bekleidet. Um mehr zu sehen, sollen Nutzer:innen zahlen oder Subscriber:innen werden. Zwei Studierende hinter einem Account haben 100 US-Dollar damit verdient. Sie hätten eigentlich nur testen wollen, ob man Menschen mit KI-Inhalten täuschen könne – sie hätten nicht mit diesem Erfolg gerechnet.

Nutzer:innen fühlen sich betrogen

Die Kommentare unter den Posts lässt allerdings erahnen, dass nicht allen klar ist, dass es sich nicht um ein reales Model handelt. Einen Transparenzhinweis gibt es nicht bei allen Accounts. „Ich fühle mich ein bisschen betrogen“, sagt eine Person gegenüber der WP, die eine Woche vorher noch unter einem Post kommentiert hatte, wie sexy und perfekt das Model aussehe. Ein anderer Nutzer war von der Enthüllung erschrocken – er findet es beängstigend, dass es so schwer sei, KI von echten Menschen zu unterscheiden.

Anzeige
Anzeige

Gegenüber Rollingstone sagten Inhaber eines Accounts, sie sehen es nicht als ihre Pflicht, darzulegen, dass es sich um ein KI-Model handelt. Käufer:innen hätten nicht nachgefragt, ob die Frau auf den Bildern echt sei – sie hätten es einfach angenommen.

„Nudes“ aus der KI

Als Deepfake Porn werden pornografische Inhalte bezeichnet, in die unbeteiligte Personen ganz einfach mit ein paar Fotos und KI eingearbeitet werden. So gab es einen angeblichen Porno mit Taylor Swift. Das ist doppelt problematisch: einerseits für die Sexindustrie, andererseits für die Unbeteiligten, in der Regel Frauen, die sich plötzlich in pornografischen Inhalten wiederfinden.

Anzeige
Anzeige

KI hat eine rasende Entwicklung hingelegt, mittlerweile benötigt es nicht mehr – wie bei einem Deepfake – ein reales Bild, das bearbeitet wird, Bildgenerierende KI spucken komplette Bilder nur auf Basis von Textbefehlen aus. Sie werden immer präziser und können mittlerweile sogar schon fast Hände realistisch darstellen. Die einfache Erstellung solcher Inhalte macht es zu einem lukrativen Deal: Die Inhalte sind in kürzester Zeit erstellt und auf Reddit einfach verkauft.

Das könnte, so WP, die milliardenschwere Sexindustrie ins Wanken bringen. Es befeuert auch Sorgen über die Objektifizierung und Ausbeutung von Frauen und Mädchen. Sexworker:innen sehen sich nicht unbedingt bedroht: „Die Leute, die behaupten, KI könnte Sexworker ersetzen, sind dieselben, die so tun, als wären Sexworker keine Menschen. Ich wünsche ihnen viel Glück und hoffe, dass sie herausfinden können, was ‚Consent‘ bedeutet. Vielleicht können sie mal die KI fragen“, sagt Sexworkerin und Studentin Zoey Sterling.

Deepfakes aus KI-Nudes

Diese KI-Bilder werden allerdings auch benutzt, um Deepfakes herzustellen. Sie ersetzen das reale Bildmaterial, das vorher gebraucht wurde. Reporter:innen der WP haben bereits Foren gefunden, in denen Menschen diskutieren, wie sie am einfachsten mit Bild-KI und der Inpainting-Bildbearbeitungstechnik Deepfakes erstellen können.

Anzeige
Anzeige

Um die Frauen zu erniedrigen und aus dem öffentlichen Raum zu drängen, müssten die Bilder nicht einmal real aussehen. Es reiche der Schockeffekt, so Sam Gregory gegenüber der WP. Er ist Executive Director einer Nonprofit-Organistaion, die in Videotechnologie und Menschenrechte spezialisiert ist. Das Problem sei neben der Masse an Deepfakes, die produziert werden, auch: „Menschen wollen etwas glauben, das jemanden erniedrigt, den sie nicht mögen.“

Nicht pornografisch, nur lustig: KI hat unsere Headlines gemalt

Dall-E malt unsere Headlines Quelle: DALL·E
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Schreib den ersten Kommentar!
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige