Maschinen sehen – und analysieren – Bilder anders als Menschen. Deshalb ist es auch möglich, dass eine Bilderkennungs-KI ein Foto, das eindeutig einen Blumenstrauß in einer Vase zeigt, als Katze oder Truck identifiziert. Der Grund liegt in sogenannten kontradiktorischen Störungen oder Adversarial Pertubations beziehungsweise Attacks: Über ein Bild wird ein anderes mit einem vermeintlich zufälligen Muster gelegt – für das menschliche Auge scheint sich nichts zu ändern, das Bilderkennungsprogramm hingegen macht aus einer Vase eine Katze.
Wie Forscher:innen von Google jetzt herausgefunden haben, stimmt das so nicht ganz. Auch Menschen sind in der Lage, diese subtilen Änderungen an einem Bild zu erkennen – und können beantworten, welches Bild einer Vase „katzenartiger“ aussieht.
Die maschinelle Bilderkennung ist dabei deutlich besser als der Mensch – während der Algorithmus es in den Experimenten der Google-Wissenschaftler:innen auf eine Erfolgsquote von 85,3 Prozent bringt, liegt die der Testpersonen bei 52 Prozent. Das ist nicht viel, aber eben mehr als die statistischen 50 Prozent, die beim reinen Raten herauskommen müssten. Diese Tendenz zieht sich durch alle von dem Team durchgeführten Versuchsanordnungen.
Wie lange die Versuchspersonen die Bilder betrachten konnten, hatte übrigens keinen Einfluss auf das Ergebnis. Ebenso scheint es keine Rolle zu spielen, wie groß (oder klein) die Änderungen ausfallen.
Adversarial Attacks können für Chaos auf den Straßen sorgen
Als Adversarial Attacks könnten solche Bildmanipulationen eingesetzt werden, um beispielsweise im Straßenverkehr mit autonom fahrenden Fahrzeugen für Chaos zu sorgen, indem Stoppschilder entsprechend manipuliert und dann nicht mehr erkannt werden. Deshalb, so die Google-Wissenschaftler:innen, sei es wichtig, das Thema weiter zu erforschen – aber eben in Bezug auf die Auswirkungen auf den Menschen.
Schließlich mache es einen Unterschied, ob wir solche kontradiktorischen Störungen nur als unterbewusstes Rauschen wahrnehmen, oder ob sie unsere Wahrnehmung nachhaltig beeinflussen. Am Ende, so die Forscher:innen, gehe es darum, sicherere KI-Systeme zu bauen.