Wieder Panne bei Gesichtserkennung: Mann saß 9 Tage unschuldig im Knast

Gesichtserkennung: Bei Schwarzen Menschen macht die Software oft Fehler. (Bild: yurakrasil/Shutterstock)
Eigentlich verbrachte der 54-jährige Alonzo Sawyer mit seiner Frau einen ruhigen Abend auf der Couch. Entsprechend unmöglich war es, dass er zur selben Zeit einen Bus überfällt und den Fahrgästen ihre Smartphones stiehlt.
Genau das warf ihm aber kurze Zeit später die Polizei vor, nachdem ein Analyst mithilfe einer KI-Gesichtssoftware Sawyer auf einem Überwachungsvideo von dem Vorfall erkannt haben will. Das brachte ihn für neun Tage hinter Gitter.
Sawyers Frau versuchte, seine Unschuld zu beweisen. Neben ihrer Aussage von dem auf der Couch verbrachten Abend erkannte sie auf dem angeblichen Beweisvideo auch, dass der Verdächtige dort keinesfalls ihr Mann sein konnte.
Denn derjenige, der den Bus überfallen hatte, war deutlich kleiner und jünger, hatte keinen Bart und keine Zahnlücken – im Gegensatz zu ihrem Mann. Außerdem hat Sawyer laut seiner Frau einen auffälligen Gang. Auch das habe sie in dem Videomaterial nicht erkennen können, wie Wired berichtet.
Sawyer hatte letztlich Glück im Unglück: Ein Opfer des Überfalls hatte einen anderen Verdächtigen ausgemacht. Dieser war tatsächlich fast 20 Zentimeter kleiner und 20 Jahre jünger als Sawyer und muss sich im April 2023 für den Überfall verantworten.
Nach einigen Tagen wurde Sawyer also aus der Untersuchungshaft entlassen.
Es ist nicht der erste Fall, bei dem ein Mensch in den USA aufgrund einer fehlerhaften Gesichtserkennung unschuldig ins Fadenkreuz der Ermittlungsbehörden gerät.
Erst Anfang dieses Jahres war von einem ähnlichen Fall berichtet worden. Hier war ein 28-Jähriger auf Basis einer Gesichtserkennung verhaftet worden. Auch hier passten weder Gewicht noch Größe mit der Täterbeschreibung zusammen.
Dennoch hielten die Behörden an ihrer Überzeugung fest. Letztlich rettete den Mann ein deutlich sichtbares Muttermal, das dem realen Täter fehlte.
Bei den dokumentierten ähnlich gelagerten Vorfällen der vergangenen Jahre, bei denen eine Gesichtserkennung für die Verhaftung Unschuldiger gesorgt hat, ging es ausschließlich um Schwarze Menschen. Bekannt ist, dass entsprechende Software bei Nicht-Weißen eine höhere Fehlerrate aufweist.
Das Problem ist, dass sich viele US-Behörden dennoch bei der Strafverfolgung auf Gesichtserkennungssoftware wie die umstrittene Clearview AI verlassen. Offenbar so sehr, dass sie auffällige Abweichungen, etwa beim Körperbau, ignorieren.
Die Technologie ist in den USA weitgehend unreguliert im Einsatz. Einige US-Staaten haben sie aber schon verboten oder eingeschränkt. Fälle wie der aktuelle sorgen sicher für weiteren Gesprächsstoff.
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team