Anzeige
Anzeige
News

Künstliche Intelligenz: Experten erforschen Quellen von Diskriminierung

Eine Studie der University of Columbia lässt den Schluss zu, dass weiße, männliche Programmierer ihre Voreingenommenheit in Algorithmen schreiben.

2 Min.
Artikel merken
Anzeige
Anzeige

Künstliche Intelligenz nimmt immer mehr Lebensbereiche in Beschlag, obwohl ihre Fehlerquellen noch nicht ausreichend erforscht sind. (Foto: Christian Lagerek/Shutterstock)

Diskriminierungen durch vermeintlich intelligente Systeme decken ein weites Feld ab: Von der Gesichtserkennung über Software für Arbeitsfähigkeit bis hin zu dermatologischen Modellen, die Patienten mit dunkler Hautfarbe benachteiligen. Nachdem es bereits Ansätze gegeben hat, die niedrige Diversifizierung der Entwicklergemeinde dafür verantwortlich zu machen, hat sich nun eine Studie der University of Columbia dem Thema angenommen.

Anzeige
Anzeige

Die Forscher beauftragten 400 KI-Ingenieure damit, Algorithmen zu erstellen. Die Aufgabe bestand darin, ein automatisiertes System zu entwickeln, das über einen Pool von 20.000 Personen Aussagen über deren mathematische Leistungen macht. Als Datenbasis wurden biografische Merkmale hinzugezogen. Die Wissenschaftler variierten die Zusammenstellung der Gruppen und die der Grunddaten. Die resultierenden Vorhersagealgorithmen kontrollierten sie auf Verzerrungen und setzten sie in Korrelation.

Sie überprüften zwei Thesen: Die Voreingenommenheit stammt von verzerrten Trainingsdaten und/oder sie stammt von voreingenommenen Programmierern. Der Grund für die zweite These liegt auf der Hand: Die Diversität von Entwicklern ist in hohem Maße nicht repräsentativ und kann dazu führen, dass sie eigene Vorurteile – bewusst oder unbewusst – an den Algorithmus weitergeben. Diese These liegt schon länger vor, diverse Papiere, etwa vom Karlsruher Institute of Technology (KIT), haben sie formuliert.

Anzeige
Anzeige

Der Faktor Mensch spielt eine Rolle

Die Experten vermuteten von vorne herein, dass beide Faktoren eine Rolle spielen. Das Ergebnis bestätigt diese Einschätzung: In erster Linie liegt der Grund in der Datenbasis, jedoch fanden sie auch besagten menschlichen Faktor, etwa bei weißen, männlichen Software-Ingenieuren.

Anzeige
Anzeige

Die algorithmischen Vorhersagefehler zweier Entwickler mit diesen Merkmalen korrelierten zum Beispiel miteinander. Im Gegensatz zu ihren weiblichen Kollegen neigten sie dazu, ihre Fehler zu verdoppeln. Die Studie geht davon aus, dass Informatikerinnen stärker eingeimpft bekommen, Perfektion zu erreichen. Eine Umfrage ergab, Informatik-Studentinnen besitzen beim Nutzen von Computern weniger Selbstvertrauen als Männer. Zudem trat der Effekt auch bei asiatischen, indischen, Schwarzen und lateinamerikanischen Männern nicht auf.

Die Autoren weisen darauf hin, dass ihre Untersuchung nicht das letzte Wort über die Quellen algorithmischer Diskriminierung spricht. Sie sei jedoch ein wichtiges Sprungbrett, um in eine bestimmte Richtung weiterzuforschen. Die angesprochenen Mechanismen würden häufig als Probleme der theoretischen Informatik formuliert, beschweren sie sich über die mangelnde Auseinandersetzung mit dem menschlichen Faktor.

Mehr zum Thema:

Mehr zu diesem Thema
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Schreib den ersten Kommentar!
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige