Anzeige
Anzeige
News

Stable Diffusion unter Druck: KI-Macher wollen Missbrauchspotenzial begrenzen

Die Veröffentlichung von Stable Diffusion hat auch der Debatte über ethische Fragen der KI-Nutzung neuen Zündstoff geliefert. Jetzt reagieren die Entwickler:innen.

2 Min.
Artikel merken
Anzeige
Anzeige
Dieses Bild hat Stable Diffusion generiert. (Bild: Stable Diffusion / t3n)

Stable Diffusion erzeugt aus simplen Textvorgaben fertige Bilder. Damit macht das KI-Modell im Grunde mehr oder weniger das Gleiche wie die Konkurrenzsysteme Dall-E oder Midjourney.

Anzeige
Anzeige

Im Gegensatz zu denen hat das Unternehmen Stability AI sein Modell unter einer freien Lizenz veröffentlicht. Das hat innerhalb kürzester Zeit zur Entstehung einer Vielzahl interessanter Software-Projekte auf Basis des KI-Modells geführt. Gleichzeitig bedeutet es aber auch, dass Stability AI keine Kontrolle darüber ausüben kann, welche Inhalte mit dem KI-Modell erstellt werden.

Die Lizenz von Stable Diffusion untersagt zwar den Einsatz der KI für unethische Zwecke, kontrollieren kann Stability AI das aber nicht. Wer damit unbedingt Fake News bebildern oder rassistische oder kinderpornografische Bilder erzeugen will, der dürfte sich von einer etwaigen Lizenzverletzung kaum abhalten lassen.

Anzeige
Anzeige

Genau das hat zu einiger Kritik an den Stable-Diffusion-Macher:innen geführt. Die reagieren jetzt und kündigen eine Reihe von Initiativen an, die das Problem den Griff bekommen sollen.

Stability AI kündigt mehrere Initiativen gegen Missbrauch von Stable Diffusion an

„Wir haben von Regulierungsbehörden und der Öffentlichkeit gehört, dass wir uns stärker auf die Sicherheit konzentrieren müssen, um sicherzustellen, dass wir alle möglichen Schritte unternehmen, um zu verhindern, dass Menschen Stable Diffusion für illegale Zwecke oder zur Schädigung von Menschen nutzen“, erklärt Stability-AI-Manager Daniel Jeffries in einem Blogbeitrag.

Anzeige
Anzeige

Konkret werden zwei Initiativen angekündigt, die das Problem entschärfen sollen. Zum einen plant Stability AI laut Jeffries die Gründung eines Open-Source-Komitees, das zukünftig über solche Fragen beraten und auf demokratische Weise entscheiden soll. Genaue Details zur Zusammensetzung dieses Komitees gibt es derzeit aber noch nicht.

Als zweite Maßnahme lobt Jeffries einen Wettbewerb aus, die zur Schaffung eines Tools zur Erkennung von Deep Fakes führen soll. Die Gewinner:innen des Wettbewerbs sollen 200.000 US-Dollar erhalten. Das fertige Tool will Stability AI dann ebenfalls unter einer Open-Source-Lizenz veröffentlichen.

Anzeige
Anzeige

Zusätzlich zur Schaffung des Komitees und der Auslobung des Deep-Fake-Preises kündigt Jeffries an, dass die nächste Version des KI-Modells entgegen früherer Planungen erst später veröffentlicht werden soll. Wenn das Unternehmen jetzt nicht etwas Geschwindigkeit herausnehme, könnte es zukünftig vielleicht gar keine quelloffene KI mehr geben. „Das ist keine Welt, in der ich leben möchte“, so Jeffries.

Stable Diffusion: Das kann der Bildgenerator

Stable Diffusion: Das kann der Bild-Generator Quelle: Dreamstudio / t3n

Auch Herkunft der Daten bleibt weiterhin ein Streitpunkt

Neben dem Missbrauchspotenzial wird auch zunehmend diskutiert, ob KI-Unternehmen einfach urheberrechtlich geschützte Inhalte zum Training ihrer Modelle nutzen dürfen. Stability AI, Musks OpenAI und die großen Tech-Konzerne wie Microsoft argumentieren, dass sie dazu nach US-amerikanischem Recht berechtigt seien.

Mit Matthew Butterick sieht es zumindest ein Jurist und Open-Source-Entwickler anders. Butterick prüft daher zusammen mit einer kalifornischen Anwaltskanzlei eine Sammelklage gegen GitHub, weil deren KI-Tool Copilot sich ohne Lizenznennung an Open-Source-Code bediene. Sollte es zu der Klage kommen, könnte deren Ausgang auch für andere KI-Unternehmen interessant werden.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Schreib den ersten Kommentar!
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige