Eigentlich verbrachte der 54-jährige Alonzo Sawyer mit seiner Frau einen ruhigen Abend auf der Couch. Entsprechend unmöglich war es, dass er zur selben Zeit einen Bus überfällt und den Fahrgästen ihre Smartphones stiehlt.
KI-Gesichtssoftware entdeckt den Falschen
Genau das warf ihm aber kurze Zeit später die Polizei vor, nachdem ein Analyst mithilfe einer KI-Gesichtssoftware Sawyer auf einem Überwachungsvideo von dem Vorfall erkannt haben will. Das brachte ihn für neun Tage hinter Gitter.
Sawyers Frau versuchte, seine Unschuld zu beweisen. Neben ihrer Aussage von dem auf der Couch verbrachten Abend erkannte sie auf dem angeblichen Beweisvideo auch, dass der Verdächtige dort keinesfalls ihr Mann sein konnte.
Behördenfehler: Auffällige Merkmale ignoriert
Denn derjenige, der den Bus überfallen hatte, war deutlich kleiner und jünger, hatte keinen Bart und keine Zahnlücken – im Gegensatz zu ihrem Mann. Außerdem hat Sawyer laut seiner Frau einen auffälligen Gang. Auch das habe sie in dem Videomaterial nicht erkennen können, wie Wired berichtet.
Sawyer hatte letztlich Glück im Unglück: Ein Opfer des Überfalls hatte einen anderen Verdächtigen ausgemacht. Dieser war tatsächlich fast 20 Zentimeter kleiner und 20 Jahre jünger als Sawyer und muss sich im April 2023 für den Überfall verantworten.
Nach einigen Tagen wurde Sawyer also aus der Untersuchungshaft entlassen.
Fehlerhafte Gesichtserkennung kein Einzelfall
Es ist nicht der erste Fall, bei dem ein Mensch in den USA aufgrund einer fehlerhaften Gesichtserkennung unschuldig ins Fadenkreuz der Ermittlungsbehörden gerät.
Erst Anfang dieses Jahres war von einem ähnlichen Fall berichtet worden. Hier war ein 28-Jähriger auf Basis einer Gesichtserkennung verhaftet worden. Auch hier passten weder Gewicht noch Größe mit der Täterbeschreibung zusammen.
Dennoch hielten die Behörden an ihrer Überzeugung fest. Letztlich rettete den Mann ein deutlich sichtbares Muttermal, das dem realen Täter fehlte.
Software bei Schwarzen Menschen oft fehlerhaft
Bei den dokumentierten ähnlich gelagerten Vorfällen der vergangenen Jahre, bei denen eine Gesichtserkennung für die Verhaftung Unschuldiger gesorgt hat, ging es ausschließlich um Schwarze Menschen. Bekannt ist, dass entsprechende Software bei Nicht-Weißen eine höhere Fehlerrate aufweist.
Das Problem ist, dass sich viele US-Behörden dennoch bei der Strafverfolgung auf Gesichtserkennungssoftware wie die umstrittene Clearview AI verlassen. Offenbar so sehr, dass sie auffällige Abweichungen, etwa beim Körperbau, ignorieren.
Technologie: Unregulierter Einsatz in den USA
Die Technologie ist in den USA weitgehend unreguliert im Einsatz. Einige US-Staaten haben sie aber schon verboten oder eingeschränkt. Fälle wie der aktuelle sorgen sicher für weiteren Gesprächsstoff.