Anzeige
Anzeige
MIT Technology Review Listicle

Vier Wege, wie man Kunst vor KI schützen kann

So können Künstler sich wehren, damit ihre im Internet zu findenden Werke nicht zum KI-Training verwendet werden können.

Von MIT Technology Review Online
4 Min.
Artikel merken
Anzeige
Anzeige

Bild: Dogboy

Seit dem Beginn des Booms der generativen KI sind viele Künstler:innen besorgt, ihren Lebensunterhalt durch die zunehmend populären KI-Tools zu verlieren. Es gibt zahlreiche Beispiele dafür, dass Unternehmen inzwischen die menschliche Arbeit durch solche Systeme ersetzen. Kürzlich hat sogar der Brausehersteller Coca-Cola eine Kontroverse ausgelöst, weil er eine neue Weihnachtswerbung mit generativer KI erstellte.

Anzeige
Anzeige

Bildende Künstler:innen, Schriftsteller:innen und Musiker:innen haben inzwischen mehrere Klagen gegen KI-Firmen eingereicht, weil ihre Werke ohne Zustimmung oder Entschädigung in Datenbanken zum Training von KI-Modellen verwendet wurden. Die Technologieunternehmen glauben hingegen, dass alles, was im öffentlichen Internet steht, unter die amerikanische Fair-Use-Regelung fällt – und verwendet werden darf, solange die Inhalte nur frei zugänglich sind. Es wird wohl noch Jahre dauern, bis wir eine rechtliche Lösung für das Problem haben.

Leider können Künstler:innen selbst nur wenig tun, wenn ihre Arbeiten bereits in einen Trainingsdatensatz aufgenommen und in einem Modell verwendet wurden, das bereits im Umlauf ist. Sie können jedoch Maßnahmen ergreifen, um zu verhindern, dass ihre Arbeiten in Zukunft verwendet werden. Vier Möglichkeiten, wie das gehen kann.

Anzeige
Anzeige

1. Den Stil maskieren

Eine der beliebtesten Methoden, mit denen sich Künstler:innen gegen das unerwünschte „AI-Scraping“ wehren, ist die Anwendung sogenannter Masken auf ihre Bilder, die ihren persönlichen Stil vor den Kopieren schützen soll.

Werkzeuge wie Mist, Anti-DreamBooth oder Glaze fügen dazu den Pixeln eines Bildes winzige Änderungen hinzu, die für das menschliche Auge unsichtbar sind, sodass maschinelle Lernmodelle die Bilder nicht richtig „entziffern“ können, wenn sie abgegriffen werden. Sie benötigen allerdings einige Programmierkenntnisse, um Mist und Anti-DreamBooth zu nutzen, aber Glaze, das von Forschern der Universität Chicago entwickelt wurde, ist einfacher anzuwenden. Das Tool ist kostenlos und kann als App heruntergeladen werden, alternativ kann der Schutz auch online angewendet werden. Es überrascht nicht, dass es das beliebteste Tool unter den Dreien ist und bereits millionenfach heruntergeladen wurde. Allerdings hat Glaze auch seine Schwachstellen, denn Forscher:innen der ETH Zürich und von Deepmind demonstrierten, dass sich das „Style Cloning“ verhältnismäßig leicht aushebeln lässt.

Anzeige
Anzeige

Damit wird deutlich: Was heute funktioniert, funktioniert morgen vielleicht nicht mehr. Im Bereich der Computersicherheit ist das Aushebeln derartiger Schutzmechanismen eine gängige Praxis unter Forscher:innen, da dies dazu beiträgt, Schwachstellen zu finden und die Systeme sicherer zu machen. Der Einsatz der Werkzeuge ist daher ein kalkuliertes Risiko: Sobald etwas online hochgeladen wurde, verliert man dennoch letztlich die Kontrolle darüber und kann die Bilder nicht mehr nachträglich schützen, sollten die Methoden doch nicht (mehr) ausreichen.

2. Überdenken, wo und wie man Bilder teilt

Beliebte Künstler- und Fotoseiten wie DeviantArt und Flickr sind zu Goldgruben für KI-Unternehmen geworden, die nach Trainingsdaten suchen. Und sobald Bilder auf Plattformen wie Instagram geteilt werden, kann die Muttergesellschaft Meta zumindest in den USA die Daten für den Aufbau ihrer Modelle auf Dauer nutzen, wenn sie öffentlich geteilt wurden. (Weitere Hinweise zum Thema Opt-out unten.)

Anzeige
Anzeige

Eine Möglichkeit, das Scraping zu verhindern, besteht darin, Bilder schlicht nicht öffentlich online zu teilen oder Profile in den sozialen Medien privat zu halten. Aber für viele Kreative ist das einfach keine Option, denn das Teilen von Arbeiten im Internet ist ein wichtiger Weg, um Kunden zu gewinnen.

Es lohnt sich daher, darüber nachzudenken, seine Arbeit auf alternativne Plattformen wie Cara zu teilen, einem neuen Projekt, das als Reaktion auf die Künstlerkritik an der KI gegründet wurde. Cara, das mit den Forscher:innen von Glaze zusammenarbeitet, plant die Integration der Werkzeuge der Forscher aus Chicago. Es implementiert zudem automatisch „NoAI“-Tags, die Online-Scrapern mitteilen, dass sie keine Bilder von der Website scrapen sollen. Derzeit ist die Plattform aber auf den guten Willen der KI-Unternehmen angewiesen, um die Wünsche der Künstler zu respektieren – aber es ist besser als nichts.

3. Abmelden vom Scrapen

Mithilfe von Datenschutzgesetzen kannst du Technologieunternehmen dazu bringen, deine Daten vom KI-Training auszuschließen. Wenn du in einem Land lebst, in dem solche Gesetze gelten, zum Beispiel im Vereinigten Königreich oder in der EU, kannst du Tech-Unternehmen bitten, deine Daten nicht für das KI-Training zu verwenden. Leider werden Opt-out-Anträge von Nutzer:innen in Ländern ohne entsprechende Datenschutzgesetze nur nach dem eigenen Ermessen der Tech-Firmen berücksichtigt.

Anzeige
Anzeige

Auf der Website Have I Been Trained, die von dem von Künstler:innen betriebenen Unternehmen Spawning AI eingerichtet wurde, lässt sich herausfinden, ob die eigenen Bilder in beliebten Open-Source-KI-Trainingsdatensätzen gelandet sind. Die Organisation hat sich mit zwei Unternehmen zusammengetan: Stability AI, das den Bildgenerator Stable Diffusion entwickelt hat, und Hugging Face, das den offenen Zugang zu KI fördert. Wenn die eigenen Bilder zur „Do Not Train Registry“ von Spawning AI hinzugefügt wurden, haben sich diese Unternehmen bereit erklärt, deine Bilder aus ihren Trainingsdatensätzen zu entfernen, bevor sie neue Modelle trainieren. Auch hier ist man leider auf den guten Willen der KI-Firmen angewiesen – und es handelt sich nicht um einen branchenweiten Standard.

4. Wenn alles andere versagt, hilft etwas „Gift“

Die Forscher der University of Chicago, die Glaze entwickelt haben, haben auch Nightshade entwickelt, ein Tool, das unsichtbare Veränderungen an Pixeln vornimmt. Aber anstatt es den KI-Modellen nur schwer zu machen, Bilder zu interpretieren, kann es zukünftige Iterationen dieser Modelle (hoffentlich) „brechen“ und sie zu unvorhersehbarem Verhalten veranlassen. So können beispielsweise Bilder von Hunden zu Katzen und Handtaschen zu Toastern werden. Den Forscher:innen zufolge sind relativ wenige Ergänzungen erforderlich, um eine Wirkung zu erzielen.

Nightshade lässt sich als App herunterladen. Für die Zukunft hofft das Team, Glaze und Nightshade zu kombinieren, aber im Moment müssen die beiden Schutzmittel noch separat angewendet werden.

Dieser Artikel stammt von Melissa Heikkilä. Sie ist Redakteurin bei der US-amerikanischen Ausgabe von MIT Technology Review. Sie berichtet über Entwicklungen auf dem Gebiet der Künstlichen Intelligenz.
Mehr zu diesem Thema
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige