Du hast deinen AdBlocker an?

Es wäre ein Traum, wenn du ihn für t3n.de deaktivierst. Wir zeigen dir gerne, wie das geht. Und natürlich erklären wir dir auch, warum uns das so wichtig ist. Digitales High-five, deine t3n-Redaktion

News

Gesichtserkennung: Amazon verwechselt 28 Politiker mit Kriminellen

Rekognition: Amazons Gesichtserkennung kann bis zu 100 Gesichter auf einem Foto gleichzeitig ausmachen. (Bild: Amazon)

Amazons Gesichtserkennungssoftware Rekognition soll 28 Politiker mit Kriminellen verwechselt haben. Amazon kritisierte den Test von US-Bürgerrechtlern wegen falscher Einstellungen.

Schon im Mai hatte die US-amerikanische Bürgerrechtsorganisation ACLU eindringlich vor Amazons 2016 vorgestelltem Gesichtserkennungssystem Rekognition gewarnt und es als „mächtig und gefährlich“ kritisiert. Jetzt hat die ACLU einen Test mit dem Tool durchgeführt, bei dem 28 Kongressabgeordnete mit mutmaßlichen Kriminellen verwechselt worden seien, wie die Bürgerrechtler mitteilen. Das soll dem Kongress vor Augen führen, wie unzuverlässig die Software arbeite.

Amazon-Software Rekognition: Auffällig viele farbige Politiker verwechselt

Die ACLU hat für den Test frei zugängliche Fotos der 535 aktuellen Mitglieder des Repräsentantenhauses und des Senats verwendet, wie Spiegel Online schreibt. Diese Fotos wurden mit denen von 25.000 Festgenommenen abgeglichen, die ebenfalls öffentlich zugänglich waren. Bei den Politikern habe es sich um Republikaner, Demokraten, Männer und Frauen jeden Alters und aus verschiedenen US-Staaten gehandelt. Auffällig sei, so die ACLU, dass auffällig viele farbige Politiker fälschlich wiedererkannt worden seien, darunter der bekannte schwarze Bürgerrechtler John Lewis.

Diese 28 US-Politiker sind in einem Test der ACLU mit der Amazon-Software Rekognition mit mutmaßlich Kriminellen verwechselt worden. (Bild: aclu.org)

Die ACLU habe für den Test dieselbe Variante des Gesichtserkennungssystems verwendet, die Amazon Nutzern für kommerzielle Zwecke zur Verfügung stellt. Damit könnte jeder Bilder von Gesichtern miteinander abgleichen. Der gesamte Test habe die Bürgerrechtler 12,33 US-Dollar gekostet – weniger als eine große Pizza, wie sie schreiben. Die Tests dienen der ACLU als weitere Untermauerung ihrer Forderung, dass Strafverfolgungsbehörden keine Gesichtserkennung einsetzen sollten. In einigen US-Städten und Gemeinden ist die Amazon-Software aber schon im Einsatz.

Amazon hat derweil gegenüber dem Spiegel auf den Test reagiert. Die ACLU habe laut einem Amazon-Sprecher lediglich die Standardeinstellungen verwendet, die eher für den Abgleich von Fotos von „Hotdogs, Stühlen, Tieren oder anderen Dingen in einem klassischen Social-Media-Kontext“ geeignet seien. Statt einer damit gegebenen Erkennungswahrscheinlichkeit von 80 Prozent sollte dieser Schwellenwert beim Einsatz von Rekognition zur Strafverfolgung auf mindestens 95 festgelegt werden. Allerdings entscheiden die Polizisten selbst, wie sie die Software einstellen.

Mehr zum Thema:

Finde einen Job, den du liebst

Bitte beachte unsere Community-Richtlinien

5 Reaktionen
Markus

Amazon kann sagen was sie möchten .. der Test führt vor, dass das Tool sehr fehlerhaft arbeiten kann. Und das bei fast biometrischen Bildern wie man sieht .. was passiert, wenn man Unschärfe oder gar nicht final getroffen wird?

Und dennoch liegt der Fehler nicht nur in der Technik, sondern im unreflektierten Umgang mit dieser.

Antworten
Pling

Wollen wir nicht alle in Sicherheit leben? Der Versuch, mutmaßliche Täter in einer Masse zu erkennen, scheint mir nicht so abwegig, wenn es darum geht, z.B. ein Massaker zu verhindern. Ich hätte nichts dagegen, erkannt oder auch verdächtigt zu werden, wenn die nachfolgenden Schritte mit gleicher Konsequenz Schuld wie Unschuld ermitteln würden und hinterher kein Makel an fälschlich Verdächtigten zurückbliebe; der Algorithmus damit einfach eine Lerniteration weiter drehen würde.
Hier liegt vermutlich das eigentliche Problem: Zeigt der Algorithmus in Richtung Bedrohung, dann glauben wir ihm das, ohne mal seine Vierfeldertafel zu Rate zu ziehen.
Viel interessanter als der beschriebene Testverlauf wäre es gewesen, wenn andere Bilder der Delinquenten unter das Testset der Politiker gemischt worden wären. Dann hätte man wenigstens testen können, ob der Algorithmus wirklich etwas erkennen kann. Das merkmalsähnliche Bilder bestimmt werden, überrascht wenig. Und wenn in der Grundgesamtheit Prävalenz für die farbige Ethnie besteht, wird das vermutlich auch auf die Falsch-Positiven durchschlagen - auch nicht wirklich außergewöhnlich.
Wir immer geht es darum, die Dinge richtig einzusetzen und vor allem die richtigen Konsequenzen zu ziehen.

Antworten
Virt Wolf

Wozu brauche ich da eine Software ?
Kriminelle = Politiker
Politiker = Kriminelle
Die Fehlerrate bei dieser Berechnung
Nur 2% oder 98% = ?

Antworten
Justin Keller

Typischer AfD-Bullshit

Antworten
Matt

Von einem Gesichtspunkt ist es urkomisch. Auf der anderen Seite, was wird passieren, wenn (und wenn) dieses System online ist und zum Beispiel von der Polizei benutzt wird?

Antworten

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.