Du hast deinen AdBlocker an?

Es wäre ein Traum, wenn du ihn für t3n.de deaktivierst. Wir zeigen dir gerne, wie das geht. Und natürlich erklären wir dir auch, warum uns das so wichtig ist. Digitales High-five, deine t3n-Redaktion

News

Gefährliches Spiel: Eine KI hat gelernt, Kriminelle anhand von Fotos zu erkennen

    Gefährliches Spiel: Eine KI hat gelernt, Kriminelle anhand von Fotos zu erkennen

(Bild: Shutterstock.com)

Kriminelle anhand ihrer Gesichter erkennen zu wollen, hat sich eigentlich als Irrweg erwiesen und ist ethisch äußerst umstritten. Eine KI lässt die Diskussion jetzt wieder aufflammen.

KI lernt, Kriminelle von Nichtkriminellen zu unterscheiden

Schon in der Antike hat man versucht, aus dem physiologischen Äußeren des Körpers, insbesondere des Gesichts, auf seelische Eigenschaften zu schließen. Die sogenannte Physiognomik wurde im 18. und 19. Jahrhundert wieder aufgegriffen, etwa von dem Arzt Cesare Lombroso, der mithilfe seiner Schädelkunde potenzielle Verbrecher vorab erkennen wollte. Lombrosos rassistische Hypothesen wurden schließlich von den Nationalsozialisten verwendet, die damit ihr Eugenik-Programm pseudowissenschaftlich unterfütterten. Das alles sollte man im Hinterkopf haben, wenn man sich die aktuelle Errungenschaft zweier Forscher anschaut.

Ethische Streitfrage: Ob eine KI bald Kriminelle in einer Menschenmenge identifizieren soll? (Bild: Shutterstock.com)
Ethische Streitfrage: Ob eine KI bald Kriminelle in einer Menschenmenge identifizieren soll? (Bild: Shutterstock.com)

Xiaolin Wu und Xi Zhang von der Jiao Tong University in Shanghai haben mithilfe von Machine-Learning einer Künstlichen Intelligenz (KI) beigebracht, Kriminelle anhand von Fotos zu erkennen. Insgesamt wurden dafür 1.856 Bilder von chinesischen Männern im Alter zwischen 18 und 55 Jahren ohne Gesichtsbehaarung verwendet. Die Hälfte dieser Männer waren Kriminelle. 90 Prozent der Bilder wurden genutzt, um das neuronale Netzwerk zu trainieren, die restlichen zehn Prozent anschließend zum Testen verwendet.

Das Ergebnis ist aus ethischer Sicht beunruhigend: Die KI konnte Kriminelle von Nichtkriminellen mit einer Genauigkeit von 89,5 Prozent unterscheiden. Den Forschern zufolge beweise das, dass eine automatisierte gesichtsinduzierte Schlussfolgerung auf Kriminalität trotz der historischen Kontroverse um das Thema möglich sei.

Anzeige

KI findet Unterschiede in den Gesichtszügen

Ihren Untersuchungen zufolge gebe es drei verschiedene Gesichtszüge, die auf darauf hindeuten, dass jemand kriminell ist: Die Krümmung der Oberlippe soll bei Kriminellen im Durchschnitt 23 Prozent größer sein als bei Nichtkriminellen. Zudem soll der Abstand zwischen den beiden inneren Ecken der Augen um sechs Prozent kürzer und der Winkel zwischen zwei Linien von der Spitze der Nase zu den Ecken des Mundes um 20 Prozent kleiner sein. Insgesamt hätten die Gesichter von Kriminellen eine größere Varianz in ihrem Aussehen. Würden aber kriminelle und nichtkriminelle Gesichter zu einem durchschnittlichen Gesicht gemorpht, gebe es kaum einen sichtbaren Unterschied.

Um streng wissenschaftlichen Ansprüchen genügen zu können, müssten die Untersuchungen allerdings noch mit anderen Ethnien, Altersgruppen und Geschlechtern durchgeführt werden. Schon jetzt stellt sich allerdings die Frage, wie die Gesellschaft künftig mit diesen und anderen Fähigkeiten von Künstlicher Intelligenz umgeht. Soll es wie in „Minority Report“ möglich werden, Kriminelle schon zu erkennen, bevor sie Verbrechen begehen? Sollen Maschinen bei der Einreise in ein anderes Land das Gesicht entsprechend checken? Gruselige Vorstellung, aber sicher nicht unmöglich.

Auch interessant in diesem Zusammenhang: Gesichtserkennung statt Passwort – Microsoft führt neues Feature bei Windows 10 ein

via www.technologyreview.com

Finde einen Job, den du liebst

2 Reaktionen
Chris
Chris

Vielleicht deckt die KI auch nur die Vorurteile auf, die unbewusst in den Köpfen von Richtern und Polizisten dazu führen, dass Menschen mit einem bestimmten äußeren Eigenschaften eher verhaftet werden als andere und damit als "kriminell" eingestuft werden. Dann würde das bedeuten, dass wir mit so einer KI unsere existierenden Vorurteile manifestieren und automatisieren können. Schöne neue Welt.

Antworten
Hermine Grün
Hermine Grün

Unabhängig davon, was Wu und Zhang glauben, bedeuten die Daten nicht, dass man aus einem Gesicht erkennen kann, ob ein Bürger in der Vergangenheit gegen ein Gesetz verstoßen hat.

Bestenfalls lässt es Rückschlüsse zu, wie wahrscheinlich jemand verurteilt wird.

Was man jedenfalls erwarten sollte, ist, dass Menschen aus Gegenden, die reichlich Motiv und Gelegenheit, aber wenig Alternativen dazu, bieten, seinen Lebensunterhalt auf illegale Art und Weise zu bestreiten, auch öfter dessen schuldig befunden werden als andere, und weiters, dass Menschen aus der gleichen Gegend oft auch äusserliche Gemeinsamkeiten aufweisen.

Daten in eine KI schütten zu können befähigt einen noch lange nicht dazu Statistik zu betreiben. Die Erkenntnisse, die ein Elektronenhirn liefert, sind letztendlich nur so gut wie die Daten, auf denen sie beruhen, und dazu muss man auch wissen, wie sie zustandekommen.

Antworten
Bitte melde dich an!

Du musst angemeldet sein, um einen Kommentar schreiben zu können.

Jetzt anmelden

Hinweis

Du hast gerade auf einen Provisions-Link geklickt und wirst in Sekunden weitergeleitet.

Bei Bestellung auf der Zielseite erhalten wir eine kleine Provision – dir entstehen keine Mehrkosten.


Weiter zum Angebot