Dall‑E, Midjourney, Stable Diffusion: Mittlerweile gibt es eine ganze Reihe von KI-Bildgeneratoren. Die liefern bisweilen unglaublich realistisch wirkende Bilder. Tatsächlich kam schon Ende 2023 eine im Fachjournal Psychological Science veröffentlichte Studie zu dem Ergebnis, dass Menschen KI-generierte Bilder oft sogar überzeugender finden als echte Fotografien.
Für die Studie zeigten die Wissenschaftler:innen 610 Menschen insgesamt 100 Bilder von Gesichtern. Davon war ein Teil KI-generiert, während der Rest echte Fotos waren. Im Verlauf des Experiments mussten die Teilnehmer:innen angeben, wie „menschlich“ das jeweilige Bild auf sie gewirkt hatte.
Das Ergebnis: Die drei als am menschlichsten bezeichneten Bilder stammten allesamt von einer KI.
Mach das Quiz: Wie gut erkennst du KI-generierte Gesichter?
Interessanterweise kam die Studie zu dem Ergebnis, dass vor allem Bilder von Menschen mit weißer Hautfarbe zu Unrecht als echt eingestuft wurden. Das erklärten die Forscher:innen damit, dass es in den Trainingsdaten des genutzten Bildgenerators offenbar mehr weiße Menschen gegeben hatte. Daher war die KI dann auch besser darin, diese Menschen realistisch darzustellen.
Es bleibt ein grundsätzliches Problem von generativen KI-Systemen, dass sich ein Mangel an Diversität in den Trainingsdaten auch in den Ergebnissen niederschlägt. Bei KI-generierten Fotos dürfte der potenzielle Schaden zwar noch überschaubar sein, aber spätestens, wenn KI-Systeme bei Einstellungen oder im medizinischen Sektor genutzt werden, können solche Versäumnisse zu ernsthaften Problemen für viele Menschen führen.
Auf einem Bild, das ein Viertel der Breite meines Handy-Bildschirms ausmacht, kann ich natürlich nicht erkennen, was KI und was Foto ist…
was sagt mir das, wenn ich 16 von 17 richtig erkenne?
Bin ich Neo? Rote Pille irgendwer?