Youtube: So geht die Plattform jetzt gegen Deepfakes vor

Auf sozialen Netzwerken gab es schon immer viel zu moderieren: Hate-Speech, Fake News und Spam-Accounts sind leider überall an der Tagesordnung – auch wenn viele Plattformen dagegen vorgehen. Durch KI ist das Problem größer geworden. Denn viele Tools sind einfach zugänglich, wodurch realistische Deepfakes ohne großen Aufwand erstellt werden können.
Bei Youtube soll damit jetzt allerdings Schluss sein. Denn die Plattform hat angekündigt, dass sie jetzt Beschwerden über KI-generierte Deepfakes und andere synthetische Inhalte entgegennimmt. Die Maßnahme ist Teil einer längeren Kampagne von Google für mehr Transparenz in Bezug auf KI-generierte Inhalte.
So kannst du KI-Deepfakes melden
Um einen Inhalt zu melden, muss der Content nicht vollständig von KI erstellt worden sein. Es reicht aus, wenn originale Videos verändert wurden. Inhalte, die dein Gesicht oder deine Stimme imitieren, kannst du über die Richtlinien für Privatsphäre melden.
Bei der Prüfung dieser Anträge wägt Youtube auch ab, ob der Inhalt verändert oder synthetisch ist und für echt gehalten werden könnte, ob die Person, die den Antrag stellt, identifizierbar ist, ob der Inhalt eine Parodie oder Satire darstellt oder es sich um bekannte Persönlichkeiten handelt.
Nicht wirklich streng
Da die Beschwerden über KI-Content Teil der Privacy-Complaints sind, zählen sie nicht als Widersprüche gegen die Community-Richtlinien. Das bedeutet auch, dass die Creator, deren Inhalte über die Richtlinien für Privatsphäre gemeldet werden, nicht automatisch eine Verwarnung bekommen müssen. Normalerweise dürfen Kanäle auf der Plattform maximal zwei Verwarnungen in 90 Tagen bekommen. Bei der dritten wird der Kanal gesperrt. Ab wann ein Verstoß durch KI-Content die Privatsphäre verletzt und ab wann das auch gegen die Community-Guidelines verstößt, erklärt Youtube nicht direkt.