Maschinen sehen – und analysieren – Bilder anders als Menschen. Deshalb ist es auch möglich, dass eine Bilderkennungs-KI ein Foto, das eindeutig einen Blumenstrauß in einer Vase zeigt, als Katze oder Truck identifiziert. Der Grund liegt in sogenannten kontradiktorischen Störungen oder Adversarial Pertubations beziehungsweise Attacks: Über ein Bild wird ein anderes mit einem vermeintlich zufälligen Muster gelegt – für das menschliche Auge scheint sich nichts zu ändern, das Bilderkennungsprogramm hingegen macht aus einer Vase eine Katze.
Wie Forscher:innen von Google jetzt herausgefunden haben, stimmt das so nicht ganz. Auch Menschen sind in der Lage, diese subtilen Änderungen an einem Bild zu erkennen – und können beantworten, welches Bild einer Vase „katzenartiger“ aussieht.
Die maschinelle Bilderkennung ist dabei deutlich besser als der Mensch – während der Algorithmus es in den Experimenten der Google-Wissenschaftler:innen auf eine Erfolgsquote von 85,3 Prozent bringt, liegt die der Testpersonen bei 52 Prozent. Das ist nicht viel, aber eben mehr als die statistischen 50 Prozent, die beim reinen Raten herauskommen müssten. Diese Tendenz zieht sich durch alle von dem Team durchgeführten Versuchsanordnungen.
Wie lange die Versuchspersonen die Bilder betrachten konnten, hatte übrigens keinen Einfluss auf das Ergebnis. Ebenso scheint es keine Rolle zu spielen, wie groß (oder klein) die Änderungen ausfallen.
Adversarial Attacks können für Chaos auf den Straßen sorgen
Als Adversarial Attacks könnten solche Bildmanipulationen eingesetzt werden, um beispielsweise im Straßenverkehr mit autonom fahrenden Fahrzeugen für Chaos zu sorgen, indem Stoppschilder entsprechend manipuliert und dann nicht mehr erkannt werden. Deshalb, so die Google-Wissenschaftler:innen, sei es wichtig, das Thema weiter zu erforschen – aber eben in Bezug auf die Auswirkungen auf den Menschen.
Schließlich mache es einen Unterschied, ob wir solche kontradiktorischen Störungen nur als unterbewusstes Rauschen wahrnehmen, oder ob sie unsere Wahrnehmung nachhaltig beeinflussen. Am Ende, so die Forscher:innen, gehe es darum, sicherere KI-Systeme zu bauen.
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team