KI-Künstlerin findet Bilder aus eigener Krankenakte in KI-Trainingssatz wieder

Für solche Bilder, werden KIs mit eine Vielzahl von Bildern aus dem Netz trainiert. (Foto: Shutterstock / Olena Zaskochenko)
Eine KI-Künstlerin, die unter dem Pseudonym Lapine auf Twitter bekannt ist, hat Bilder von sich selbst aus einer privaten Krankenakte im KI-Trainingssatz LAION wiedergefunden. Das ist eine Sammlung von Bildern, die unter anderem dafür genutzt wird, derzeit beliebte KI-Bild-zu-Text-Generatoren wie Google Imagen oder Stable Diffusion zu trainieren.
Lapine teilt ihre Story mit Ars Technica. Demnach hatte sie die Bilder von sich selbst auf einer Seite namens „Have I been trained” wiedergefunden. Hier können Menschen mit Bild oder Texteingabe herausfinden, ob ihr Foto für KI-Training genutzt wurde.
Lapine lud ein aktuelles Foto von sich hoch und fand die Bilder, die ihr Arzt 2013 nach einer Behandlung gemacht hatte. Auf Twitter teilt sie diesen Vorfall ebenfalls mit einem Foto eines Formulars. Hier stimmt sie zu, dass die Bilder lediglich in ihrer Akte aufbewahrt werden.
Wie kommen die Bilder ins Internet?
Der Chirurg, der die Bilder von Lapine machte, starb 2018 an Krebs. Sie vermutet, dass die Bilder irgendwann danach aus der Obhut der Praxis gelangt sind. „Es ist das digitale Äquivalent zum Erhalten von gestohlenem Eigentum“, sagt Lapine gegenüber Ars. „Jemand hat das Bild aus den Akten meines verstorbenen Arztes gestohlen, und es landete irgendwo im Internet, und dann wurde es in diesen Datensatz geschrammt.“
Ars bestätigt, dass es sich dabei um Bilder von Lapine handelt. Sie selbst möchte die Fotos nicht öffentlich zeigen. Bei der Recherche hat die Seite noch viele weitere ähnliche medizinische Fotos in der Datenbank gefunden.
Lapine stört sich vor allem daran, dass solche ohne Einwilligung genutzten Bilder Teil eines kommerziellen Produktes sind. „Es ist schon schlimm genug, dass ein Foto durchgesickert ist, aber jetzt ist es Teil eines Produkts“, sagt Lapine. „Und das gilt für alle Fotos, Krankenakte oder nicht. Und das zukünftige Missbrauchspotenzial ist wirklich hoch.“
LAION hostet die Bilder nicht selbst
LAION, der Betreiber der Datenbank, sieht sich nicht für die Urheberrechte der Bilder in der Verantwortung. Die Datenbank ist nämlich nur eine Ansammlung von URLs, die auf die entsprechenden Bilder verweisen.
Wenn jemand die Bilder für ein Projekt nutzen möchte, muss er diese eigenständig von den Webseiten herunterladen. Zudem erkundigte Ars sich, ob es möglich sei, Bilder aus der Datenbank zu entfernen. Ein LAION-Ingenieur antwortete darauf:
„Der beste Weg, ein Bild aus dem Internet zu entfernen, besteht darin, die Hosting-Website zu bitten, das Hosting einzustellen. Wir hosten keines dieser Bilder.“ LAION selbst hat sich bisher nicht zu der Story geäußert.
Lapine hat nach dem Vorfall ihre Einstellung zu KI-generierten Bilder allerdings geändert. „Ich bin sehr vorsichtig damit, fotorealistische Bilder von Menschen zu erstellen“, sagte sie. „Ich halte mich eher an Tiermotive, Statuen und Kunst, die zu einem Stil oder einer Epoche passt, als zu einem bestimmten Künstler.“
Ob die gruselige Frau, die immer wieder in KI-generierten Bildern auftaucht, auch aus einer Krankenakte stammt, wissen wir natürlich nicht. Es wäre aber durchaus vorstellbar.