
Stable Diffusion erzeugt aus simplen Textvorgaben fertige Bilder. Damit macht das KI-Modell im Grunde mehr oder weniger das Gleiche wie die Konkurrenzsysteme Dall-E oder Midjourney.
Im Gegensatz zu denen hat das Unternehmen Stability AI sein Modell unter einer freien Lizenz veröffentlicht. Das hat innerhalb kürzester Zeit zur Entstehung einer Vielzahl interessanter Software-Projekte auf Basis des KI-Modells geführt. Gleichzeitig bedeutet es aber auch, dass Stability AI keine Kontrolle darüber ausüben kann, welche Inhalte mit dem KI-Modell erstellt werden.
Die Lizenz von Stable Diffusion untersagt zwar den Einsatz der KI für unethische Zwecke, kontrollieren kann Stability AI das aber nicht. Wer damit unbedingt Fake News bebildern oder rassistische oder kinderpornografische Bilder erzeugen will, der dürfte sich von einer etwaigen Lizenzverletzung kaum abhalten lassen.
Genau das hat zu einiger Kritik an den Stable-Diffusion-Macher:innen geführt. Die reagieren jetzt und kündigen eine Reihe von Initiativen an, die das Problem den Griff bekommen sollen.
Stability AI kündigt mehrere Initiativen gegen Missbrauch von Stable Diffusion an
„Wir haben von Regulierungsbehörden und der Öffentlichkeit gehört, dass wir uns stärker auf die Sicherheit konzentrieren müssen, um sicherzustellen, dass wir alle möglichen Schritte unternehmen, um zu verhindern, dass Menschen Stable Diffusion für illegale Zwecke oder zur Schädigung von Menschen nutzen“, erklärt Stability-AI-Manager Daniel Jeffries in einem Blogbeitrag.
Konkret werden zwei Initiativen angekündigt, die das Problem entschärfen sollen. Zum einen plant Stability AI laut Jeffries die Gründung eines Open-Source-Komitees, das zukünftig über solche Fragen beraten und auf demokratische Weise entscheiden soll. Genaue Details zur Zusammensetzung dieses Komitees gibt es derzeit aber noch nicht.
Als zweite Maßnahme lobt Jeffries einen Wettbewerb aus, die zur Schaffung eines Tools zur Erkennung von Deep Fakes führen soll. Die Gewinner:innen des Wettbewerbs sollen 200.000 US-Dollar erhalten. Das fertige Tool will Stability AI dann ebenfalls unter einer Open-Source-Lizenz veröffentlichen.
Zusätzlich zur Schaffung des Komitees und der Auslobung des Deep-Fake-Preises kündigt Jeffries an, dass die nächste Version des KI-Modells entgegen früherer Planungen erst später veröffentlicht werden soll. Wenn das Unternehmen jetzt nicht etwas Geschwindigkeit herausnehme, könnte es zukünftig vielleicht gar keine quelloffene KI mehr geben. „Das ist keine Welt, in der ich leben möchte“, so Jeffries.
Stable Diffusion: Das kann der Bildgenerator
Auch Herkunft der Daten bleibt weiterhin ein Streitpunkt
Neben dem Missbrauchspotenzial wird auch zunehmend diskutiert, ob KI-Unternehmen einfach urheberrechtlich geschützte Inhalte zum Training ihrer Modelle nutzen dürfen. Stability AI, Musks OpenAI und die großen Tech-Konzerne wie Microsoft argumentieren, dass sie dazu nach US-amerikanischem Recht berechtigt seien.
Mit Matthew Butterick sieht es zumindest ein Jurist und Open-Source-Entwickler anders. Butterick prüft daher zusammen mit einer kalifornischen Anwaltskanzlei eine Sammelklage gegen GitHub, weil deren KI-Tool Copilot sich ohne Lizenznennung an Open-Source-Code bediene. Sollte es zu der Klage kommen, könnte deren Ausgang auch für andere KI-Unternehmen interessant werden.