KI-Bilder: Gruselige Frau taucht immer wieder auf und niemand weiß, warum
Der auf elektronische Musik und KI-Bilder spezialisierte Twitter-Account Supercomposite hat klare Worte: „Es ist ein wiederholt auftauchendes Phänomen, aber kein Computer-Dämon“. Scrollt man durch die Bilder, die in einem eigens angelegten Thread auftauchen, könnte man aber anderer Meinung sein.
Loab tauchte erstmals im April auf
Schon im April 2022, so schreibt der hinter Supercomposite steckende Twitter-Nutzer, sei ihm aufgefallen, dass die aktuell im Fokus stehenden KI-Bildgeneratoren wie Dall-E oder Midjourney immer wieder einmal ein gruselig anmutendes Antlitz einer Frau ausspucken.
Zuerst sei die Frau, die Supercomposite Loab genannt hat, bei Befehlen an die KI aufgetaucht, die auf das Gegenteil der angegebenen Begriffe abzielen. Die Technik wird im Englischen als „negative prompt weights“ bezeichnet, wie vice.com schreibt.
Als Supercomposite der KI den Befehl erteilte, ein Bild zu erzeugen, das das Gegenteil des Worts „Brando“ darstellt, sei dabei ein Logo mit der Skyline einer Stadt und der Inschrift „DIGITA PNTICS“ herausgekommen. Als er der KI mit der negativen Gewichtungstechnik diesen Schriftzug als Aufgabe zur Bilderstellung stellte, erschien Loab zum ersten Mal. Seitdem ist sie auch eine Art Social-Media-Phänomen.
Passend dazu: Diese KI kreiert faszinierende und zugleich gruselige Bilder
Interessant und zugleich gruselig ist, dass beinahe alle Bilder, die durch Kombination von Loab mit anderen Bildern entstehen, das Gesamtbild in eine Horror- oder Gewaltszenerie verwandeln.
KI verbindet Gewalt und Horror mit Loab
Es scheint, so meint Supercomposite, als würde das Gesicht dieser Frauenfigur in dem KI-Datenschatz mit extrem blutigen und makabren Bildern in Verbindung gebracht. Der KI-Künstler versucht, sich das mit einer Art statistischem Zufall zu erklären.
Denn klar ist, dass bisher niemand erklären kann, warum Loab in so vielen verstörenden KI-generierten Bildern auftaucht. Laut vice.com wäre das auch praktisch unmöglich, da die entsprechenden KI-Systeme mit Milliarden von Bildern trainiert werden und viel zu komplex seien, um herauszufinden, wie die Ergebnisse zustandekommen.
Genau das ist übrigens auch die Kritik von KI-Ethiker:innen an großen Sprachmodellen wie dem von Dall-E verwendeten. Sie seien schlicht zu groß und ihre Ergebnisse zu unvorhersehbar, um schädliche Ergebnisse zuverlässig zu verhindern.