Twitters Bild-Algorithmus bevorzugte junge, weiße und weibliche Menschen
Im Rahmen eines Wettbewerbs während der Hackingkonferenz Defcon hat der Kurznachrichtendienst Twitter darum gebeten, Fälle des sogenannten Unconscious Bias im eigenen Algorithmus ausfindig zu machen. Hacker:innen waren aufgefordert, den Code des Bildzuschnitt-Algorithmus auf links zu drehen und Vorurteile ans Tageslicht zu bringen. Dafür wurden auch Preisgelder in Höhe von insgesamt 7.000 US-Dollar ausgerufen.
Weiß, weiblich, jung – und vom Algorithmus bevorzugt
Dem Studenten Bogdan Kulynych ist es gelungen, mithilfe manipulierter Bilder fragwürdige Entscheidungskriterien des Algorithmus aufzudecken: So bevorzugt er neben heller Haut auch junge Gesichter gegenüber älteren und weibliche Menschen gegenüber männlichen. Wie genau Kulynych dabei vorgegangen ist, erklärt er Interessierten auf GitHub. Weitere Tests anderer Teilnehmer:innen ergaben zudem, dass der Algorithmus auch Menschen mit Behinderungen oder die, die ein Kopftuch tragen, benachteiligen soll. Zudem stelle die KI auch lieber lateinische als arabische Schrift in den Vordergrund.
Der untersuchte Algorithmus selbst war von Twitter schon nach der ersten Kritik im September 2020 deaktiviert worden, um weiteren Schaden abzuwenden. Damals hatte ein Nutzer nachweisen können, dass der Algorithmus Bildausschnitte immer so positionierte, dass eine Person mit weißer Hautfarbe zu sehen ist, während der Schwarze Mensch herausgecropt wurde. In der Folge hatte der Kurznachrichtendienst den Nutzer:innen erlaubt, selbst festzulegen, welcher Bildausschnitt in der Vorschau angezeigt wird.
Algorithmus-Vorurteile sind ein großes Problem
Algorithmen sind vielfach noch richtige Black Boxes – sie spucken Ergebnisse aus oder treffen Entscheidungen, aber wie sie dahin gelangt sind, ist nicht immer nachvollziehbar. Facebook beispielsweise unterzieht mithilfe eines eigens dafür geschaffenen Teams die eigenen Algorithmen genaueren Prüfungen.
Auch Amazon hatte schon vor drei Jahren das KI-gestützte Recruiting eingestellt, weil es immer wieder zu Fällen von Diskriminierung gekommen war. Um künstliche Intelligenzen zu beeinflussen, genügt es teilweise schon, sich vor einem Bücherregal zu positionieren. Zum Glück gibt es aber auch Mittel und Wege, um Unconscious Bias in Algorithmen zu vermeiden.
Ich kann mir auch einfach vorstellen, dass hellere Gesichter halt einfach mehr hervorstechen und somit eher als Mensch erkannt werden – ich würde dem Algorithmus jetzt also keinen Rassismus vorwerfen. Auch bei Behinderungen oder Kopftüchern ist der Algorithmus einfach nicht mehr so gut im Erkennen, weil eben vehemente Unterschiede auftreten.
Und dass lateinische Buchstaben bevorzugt werden, ja gut, ernsthaft, das wundert mich jetzt auch kein Stück mehr – schließlich ist das die Sprache der Algorithmen in der Regel. Das sollte aber mit einigen Adjustierungen auch wieder am schnellsten behoben sein.