Microsofts Copilot Designer: Darum warnt ein Entwickler vor dem KI-Bildgenerator
Wenn ChatGPT keine Anleitung für den Bombenbau schreiben oder Midjourney keine Pornobilder erzeugen will, dann haben eigens dafür eingebaute Sicherheitsmechanismen gegriffen, die einen Missbrauch der KI-Tools verhindern sollen. Geht es nach dem Microsoft-Entwickler Shane Jones, dann sind genau die nicht ausreichend beim Copilot Designer.
Laut dem US-Nachrichtensender CNBC soll Jones zunächst intern Kritik geübt haben. Denn bei seinen Versuchen mit dem KI-Bildgenerator von Microsoft habe er immer wieder verstörende Bilder erzeugen können. Daraufhin soll Microsoft Jones an OpenAI verwiesen haben. Denn der Copilot Designer basiert auf dem von dem Startup entwickelten KI-Modell Dall-E 3.
Nachdem OpenAI aber nicht reagierte, veröffentlichte Jones einen offenen Brief an das Unternehmen auf Linkedin, in dem er forderte, dass Dall-E 3 bis zum Abschluss einer Untersuchung offline genommen werden sollte. Den Beitrag löschte Jones später allerdings wieder, nachdem ihn Microsofts Rechtsabteilung dazu aufgefordert hatte.
Microsoft-Entwickler wendet sich an US-Senat und Aufsichtsbehörde
Für Jones war die Sache damit aber noch nicht erledigt. Laut CNBC schrieb er im Januar 2024 einen Brief an verschiedene US-Senator:innen und traf später Vertreter:innen des zuständigen Senatsausschusses.
Jetzt geht Jones noch einen Schritt weiter und hat sich an die in den USA für die Wettbewerbskontrolle zuständige Behörde Federal Trade Commission (FTC) gewandt. „In den letzten drei Monaten habe ich Microsoft wiederholt aufgefordert, Copilot Designer aus der öffentlichen Nutzung zu nehmen, bis bessere Sicherheitsvorkehrungen getroffen werden können“, zitiert CNBC aus dem Brief.
In einem weiteren Schreiben hat sich Jones außerdem an den Aufsichtsrat von Microsoft gewandt. In dem Brief fordert der Entwickler unter anderem, dass von unabhängiger Seite untersucht werden müsse, wie das Unternehmen intern auf Berichte zu KI-Vorfällen reagiert.
Microsoft verweist auf robuste Sicherheitsmaßnahmen
„Wenn es um Sicherheitsumgehungen oder Bedenken geht, die sich möglicherweise auf unsere Dienstleistungen oder unsere Partner auswirken könnten, haben wir robuste interne Meldekanäle eingerichtet, um alle Probleme ordnungsgemäß zu untersuchen und zu beheben, und wir ermutigen unsere Mitarbeiter, diese Kanäle zu nutzen, damit wir ihre Bedenken angemessen überprüfen und bewerten können“, erklärt Microsoft gegenüber CNBC.
Das Unternehmen nehme die Bedenken aller Mitarbeiter:innen ernst.
Von Gewalt, Drogen und militanten Disney-Prinzessinen
Nach Angaben von CNBC soll der Copilot Designer rein durch die Eingabe des Begriffs „pro-choice“ eine Reihe gewalttätiger Bilder erzeugt haben. Eines davon soll einen Dämon zeigen, der seine scharfen Zähne in ein Baby bohrt. Ein anderes Bild soll eine blutverschmierte Frau darstellen, die umgeben von lächelnden Ärzten ist.
Die Eingabe des Begriffs „Autounfall“ wiederum soll Bilder sexualisierter Gewalt neben einem Autounfall erzeugt haben.
Darüber hinaus soll es mit dem Copilot Designer ohne größere Probleme möglich sein, Disney-Prinzessinnen und andere urheberrechtlich geschützte Figuren für politische Propaganda zu nutzen.
Auch Google hat Probleme mit KI-Bildern
Erst kürzlich war Google in die Kritik geraten, weil ihre Gemini-KI zum Teil bizarre Bilder erzeugt hatte. Daraufhin hatte Google die Funktion vorübergehend deaktiviert und sich öffentlich entschuldigt.