Anzeige
Anzeige
News

Umstrittene Maßnahme: Midjourney nimmt Bilder von Xi Jinping aus der KI

Mit der KI von Midjourney lassen sich gefälschte Bilder erstellen, die täuschend echt aussehen. In vorauseilendem Gehorsam hat der CEO des Startups den Namen Xi Jinping ausgenommen und regt damit Kritik an.

Von Hannah Klaiber
2 Min.
Artikel merken
Anzeige
Anzeige
Der KI-Bildgenerator Midjourney zensiert sich selbst. (Bild: Shutterstock/Zhuravlev Andrey)


Xi Jinping, Staatspräsident der Volksrepublik China, ist nicht gerade für seinen Humor bekannt. In China sind sogar Bilder des Zeichentrickbären Winnie Puh verboten, nachdem immer wieder Witze über die angebliche Ähnlichkeit des Staatspräsidenten mit dem honigverliebten Bären die Runde gemacht hatten.

Um voraussehbaren Ärger gleich ganz zu vermeiden, hat David Holz, der CEO der generativen KI Midjourney, eine durchaus umstrittene Grenze gesetzt: Wer den Namen Xi Jinping eingibt, wird keine Fake-Bilder wie das des Papstes bekommen, der kürzlich in einen weißen Daunenmantel gehüllt im Netz viral ging. Das bestätigte Holz gegenüber der Washington Post.

Anzeige
Anzeige

Die Ausnahme gilt ausdrücklich nicht nur in China, wo strenge Zensur herrscht, sondern für alle User:innen. Für andere Staats- und Regierungschefinnen und ‑chefs gibt es keinerlei Beschränkungen, wobei es eine nicht veröffentlichte Liste weiterer gesperrter Begriffe geben soll.

Das Drama soll „minimiert“ werden

Was ihn zu dem Schritt bewogen hat, hat der CEO 2022 in einem Beitrag auf dem Chatdienst Discord erklärt: „Wir wollen nur das Drama minimieren“, sagte er da. In China sei politische Satire nicht in Ordnung, wobei „die Fähigkeit der Menschen in China, diese Technologie zu nutzen“, wichtiger sei als ihre „Fähigkeit, Satire zu erzeugen“.

Anzeige
Anzeige

Laut Golem.de lässt sich die KI aber austricksen. Dafür darf man zwar nicht den Namen des chinesischen Staatspräsidenten eingeben, aber kann Umschreibungen wie „chinese prime minister“ nutzen.

Dass sich die Schöpfer hinter dem angesagten KI-Bildgenerator von sich aus einem autoritären Regime beugen, ist genauso umstritten wie die Tatsache, dass es für derartige Technologien keine einheitlichen Regeln gibt. Die Probleme, die das mit sich bringt, kennt man schon von den großen sozialen Netzwerken.

Anzeige
Anzeige

Mit der KI kann jeder ganz einfach Fake-Bilder erstellen

Hatespeech und gezielte Desinformation spielen schon dort eine große Rolle. Die Gefahr, die von fiktiven Szenen mit realen Personen ausgeht, könnte in Hinblick auf Propaganda und Verunglimpfung einzelner Personen noch viel größer sein.

Laut Washington Post hat Midjourney in nur einem Jahr 13 Millionen zahlende Mitglieder gewonnen und gehört schon jetzt zur Topriege der Techbranche. Was die Technologie so interessant macht: Schon vorher konnten mit Bildbearbeitungssoftware wie Adobe Photoshop gut gemachte und real wirkende Fake-Bilder erstellt werden. Aber das war lange nicht so einfach für Nutzer:innen, die jetzt dafür nur noch einen entsprechenden Text eingeben müssen.

Anzeige
Anzeige

Die Regeln sind lax bis kaum vorhanden

Bezüglich möglicher Regeln für den KI-Bildgenerator sagte der CEO kürzlich bei einer Midjourney-Sprechstunde auf Discord, insbesondere für die Darstellung realer Menschen Regeln zu bestimmen sei schwierig. Die Bilder würden immer realistischer und die Werkzeuge leistungsfähiger.

Midjourney arbeite aber an der Verfeinerung von KI-Moderationstools, mit denen generierte Bilder auf Fehlverhalten überprüft werden könnten.
Bei der Konkurrenz Dall-E von OpenAI können laut Washington Post zum Beispiel keine Bilder erstellt werden, auf denen denen Politiker:innen sowie „große Verschwörungen oder Ereignisse in Zusammenhang mit wichtigen geopolitischen Ereignissen“ beteiligt seien.

Bei Stable Diffusion von Stability AI gibt es dagegen kaum Regeln zur Nutzung der KI. Laut dem CEO Emad Mostaque liegt es in der Verantwortung der User:innen, ob die erstellten Inhalte ethisch und moralisch unbedenklich sowie legal seien.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Schreib den ersten Kommentar!
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige