Vier Wege, wie man Kunst vor KI schützen kann
Seit dem Beginn des Booms der generativen KI sind viele Künstler:innen besorgt, ihren Lebensunterhalt durch die zunehmend populären KI-Tools zu verlieren. Es gibt zahlreiche Beispiele dafür, dass Unternehmen inzwischen die menschliche Arbeit durch solche Systeme ersetzen. Kürzlich hat sogar der Brausehersteller Coca-Cola eine Kontroverse ausgelöst, weil er eine neue Weihnachtswerbung mit generativer KI erstellte.
Bildende Künstler:innen, Schriftsteller:innen und Musiker:innen haben inzwischen mehrere Klagen gegen KI-Firmen eingereicht, weil ihre Werke ohne Zustimmung oder Entschädigung in Datenbanken zum Training von KI-Modellen verwendet wurden. Die Technologieunternehmen glauben hingegen, dass alles, was im öffentlichen Internet steht, unter die amerikanische Fair-Use-Regelung fällt – und verwendet werden darf, solange die Inhalte nur frei zugänglich sind. Es wird wohl noch Jahre dauern, bis wir eine rechtliche Lösung für das Problem haben.
Leider können Künstler:innen selbst nur wenig tun, wenn ihre Arbeiten bereits in einen Trainingsdatensatz aufgenommen und in einem Modell verwendet wurden, das bereits im Umlauf ist. Sie können jedoch Maßnahmen ergreifen, um zu verhindern, dass ihre Arbeiten in Zukunft verwendet werden. Vier Möglichkeiten, wie das gehen kann.
1. Den Stil maskieren
Eine der beliebtesten Methoden, mit denen sich Künstler:innen gegen das unerwünschte „AI-Scraping“ wehren, ist die Anwendung sogenannter Masken auf ihre Bilder, die ihren persönlichen Stil vor den Kopieren schützen soll.
Werkzeuge wie Mist, Anti-DreamBooth oder Glaze fügen dazu den Pixeln eines Bildes winzige Änderungen hinzu, die für das menschliche Auge unsichtbar sind, sodass maschinelle Lernmodelle die Bilder nicht richtig „entziffern“ können, wenn sie abgegriffen werden. Sie benötigen allerdings einige Programmierkenntnisse, um Mist und Anti-DreamBooth zu nutzen, aber Glaze, das von Forschern der Universität Chicago entwickelt wurde, ist einfacher anzuwenden. Das Tool ist kostenlos und kann als App heruntergeladen werden, alternativ kann der Schutz auch online angewendet werden. Es überrascht nicht, dass es das beliebteste Tool unter den Dreien ist und bereits millionenfach heruntergeladen wurde. Allerdings hat Glaze auch seine Schwachstellen, denn Forscher:innen der ETH Zürich und von Deepmind demonstrierten, dass sich das „Style Cloning“ verhältnismäßig leicht aushebeln lässt.
Damit wird deutlich: Was heute funktioniert, funktioniert morgen vielleicht nicht mehr. Im Bereich der Computersicherheit ist das Aushebeln derartiger Schutzmechanismen eine gängige Praxis unter Forscher:innen, da dies dazu beiträgt, Schwachstellen zu finden und die Systeme sicherer zu machen. Der Einsatz der Werkzeuge ist daher ein kalkuliertes Risiko: Sobald etwas online hochgeladen wurde, verliert man dennoch letztlich die Kontrolle darüber und kann die Bilder nicht mehr nachträglich schützen, sollten die Methoden doch nicht (mehr) ausreichen.
2. Überdenken, wo und wie man Bilder teilt
Beliebte Künstler- und Fotoseiten wie DeviantArt und Flickr sind zu Goldgruben für KI-Unternehmen geworden, die nach Trainingsdaten suchen. Und sobald Bilder auf Plattformen wie Instagram geteilt werden, kann die Muttergesellschaft Meta zumindest in den USA die Daten für den Aufbau ihrer Modelle auf Dauer nutzen, wenn sie öffentlich geteilt wurden. (Weitere Hinweise zum Thema Opt-out unten.)
Eine Möglichkeit, das Scraping zu verhindern, besteht darin, Bilder schlicht nicht öffentlich online zu teilen oder Profile in den sozialen Medien privat zu halten. Aber für viele Kreative ist das einfach keine Option, denn das Teilen von Arbeiten im Internet ist ein wichtiger Weg, um Kunden zu gewinnen.
Es lohnt sich daher, darüber nachzudenken, seine Arbeit auf alternativne Plattformen wie Cara zu teilen, einem neuen Projekt, das als Reaktion auf die Künstlerkritik an der KI gegründet wurde. Cara, das mit den Forscher:innen von Glaze zusammenarbeitet, plant die Integration der Werkzeuge der Forscher aus Chicago. Es implementiert zudem automatisch „NoAI“-Tags, die Online-Scrapern mitteilen, dass sie keine Bilder von der Website scrapen sollen. Derzeit ist die Plattform aber auf den guten Willen der KI-Unternehmen angewiesen, um die Wünsche der Künstler zu respektieren – aber es ist besser als nichts.
3. Abmelden vom Scrapen
Mithilfe von Datenschutzgesetzen kannst du Technologieunternehmen dazu bringen, deine Daten vom KI-Training auszuschließen. Wenn du in einem Land lebst, in dem solche Gesetze gelten, zum Beispiel im Vereinigten Königreich oder in der EU, kannst du Tech-Unternehmen bitten, deine Daten nicht für das KI-Training zu verwenden. Leider werden Opt-out-Anträge von Nutzer:innen in Ländern ohne entsprechende Datenschutzgesetze nur nach dem eigenen Ermessen der Tech-Firmen berücksichtigt.
Auf der Website Have I Been Trained, die von dem von Künstler:innen betriebenen Unternehmen Spawning AI eingerichtet wurde, lässt sich herausfinden, ob die eigenen Bilder in beliebten Open-Source-KI-Trainingsdatensätzen gelandet sind. Die Organisation hat sich mit zwei Unternehmen zusammengetan: Stability AI, das den Bildgenerator Stable Diffusion entwickelt hat, und Hugging Face, das den offenen Zugang zu KI fördert. Wenn die eigenen Bilder zur „Do Not Train Registry“ von Spawning AI hinzugefügt wurden, haben sich diese Unternehmen bereit erklärt, deine Bilder aus ihren Trainingsdatensätzen zu entfernen, bevor sie neue Modelle trainieren. Auch hier ist man leider auf den guten Willen der KI-Firmen angewiesen – und es handelt sich nicht um einen branchenweiten Standard.
4. Wenn alles andere versagt, hilft etwas „Gift“
Die Forscher der University of Chicago, die Glaze entwickelt haben, haben auch Nightshade entwickelt, ein Tool, das unsichtbare Veränderungen an Pixeln vornimmt. Aber anstatt es den KI-Modellen nur schwer zu machen, Bilder zu interpretieren, kann es zukünftige Iterationen dieser Modelle (hoffentlich) „brechen“ und sie zu unvorhersehbarem Verhalten veranlassen. So können beispielsweise Bilder von Hunden zu Katzen und Handtaschen zu Toastern werden. Den Forscher:innen zufolge sind relativ wenige Ergänzungen erforderlich, um eine Wirkung zu erzielen.
Nightshade lässt sich als App herunterladen. Für die Zukunft hofft das Team, Glaze und Nightshade zu kombinieren, aber im Moment müssen die beiden Schutzmittel noch separat angewendet werden.