Ratgeber

Wie du Vorurteilen in KI-Systemen vorbeugen kannst

(Grafik: Shutterstock)

Unbeabsichtigte Negativfolgen zählen zu den größten Herausforderungen bei künstlicher Intelligenz. Deshalb muss garantiert werden, dass KI-Systeme nicht selbst Verzerrungen und Vorurteile produzieren.

Künstliche Intelligenz birgt ein enormes Potenzial, die Welt besser zu machen. Lösungen, die bis vor kurzem reine Science-Fiction waren, sind (in greifbarer) Realität: Smartphone-Apps, die Blinde ihre Umwelt besser wahrnehmen lassen; KI-Systeme für die Diagnostik von Krebszellen; Suchmaschinen, die mittels Terrapattern-KI Satellitenbilder durchforsten, lernen und so strukturiertes Suchen („zeig mir alle Tennisplätze in Berlin“) ermöglichen; lernende Interaktionssysteme auf Websites, die selbstständig Kunden beraten oder eben selbstfahrende Autos. Im Licht dieser Erfolge ist es wichtig, nicht nur die Chancen zu feiern, sondern gleichermaßen die Risiken zu betrachten. Die können etwa in vorurteilsbeladenen KI-Systemen liegen.

Man stelle sich vor: Ein soziales Netzwerk hat ein Problem mit Hasskommentaren und kriminellen Inhalten. Die Datenmenge ist aber zu groß, als dass Menschen alle Posts prüfen könnten. Eine Lösung liegt im Einsatz von künstlicher Intelligenz: Entsprechende Programme durchforsten selbstständig alle Inhalte und löschen oder markieren jene, die sich nicht an die Richtlinien halten – schnell, zuverlässig und vor allem absolut neutral und ausgewogen.

Menschliche Schwachstellen ausgleichen

Dabei ist neben der reinen Rechenleistung vor allem ein Faktor für den Erfolg von KI ausschlaggebend. Die Softwarelösungen können nämlich typisch menschliche Schwachstellen ausgleichen und das ist gerade bei automatisierter Entscheidungsfindung enorm wichtig. Denn der Mensch ist fehlbar und oft von bewussten oder unbewussten Vorurteilen – sogenannten Biases – geleitet. Maschinen dagegen entscheiden hundertprozentig rational. KI-Systeme kennen keinen Rassismus und Sexismus – zumindest in der Theorie.

In der Praxis hingegen sieht das unter Umständen ganz anders aus. Man braucht nicht lange suchen, um Beispiele für katastrophale KI-Fehlschläge zu finden: Die Gesichtserkennungssoftware etwa, die Menschen mit dunkler Hautfarbe nicht erkennen konnte, oder die KI-Lösung, die in Florida kriminelles Verhalten voraussagen sollte und laut Propublica Afroamerikaner doppelt so häufig fehlerhaft mit einem hohen Kriminalitätsrisiko markierte. Logisch weitergeführt könnten solche Fehlentscheidungen ebenso bei militärischen Anwendungen oder bei Banksystemen entstehen – mit entsprechend fatalen Konsequenzen.

KI-Systeme existieren nicht in einem Vakuum

Die Ursache liegt in der Kluft zwischen Theorie und Praxis: Denn KI-Systeme – ganz egal, wie gut sie gemeint sind – existieren nicht in einem Vakuum. Sie reproduzieren stattdessen genau die Perspektiven und Schwerpunkte, die in ihnen angelegt wurden und in deren Umfeld sie sich weiterentwickeln. Anders ausgedrückt: Wenn der Quellcode bereits eine ungleich gewichtete Wahrnehmung von Input vorgibt oder bestimmte Ergebnisse bevorzugt, wird sich das auch in den Ergebnissen zeigen.

Und selbst wenn die KI-Software in sich stimmig programmiert wurde, kann sie sich ins Negative verformen, wenn die Daten, auf deren Basis das System lernt und sich eigenständig weiterentwickelt, von Biases durchzogen sind – beispielsweise wenn bestimmte Personengruppen wie Frauen, People of Color, Senioren oder Alleinerziehende kaum in Datensätzen vorkommen und sich die Systeme ihren Bedürfnissen entsprechend wenig anpassen. Diese Biases können an praktisch jedem Punkt der Prozessualisierung von KI-Systemen entstehen: sei es bei der Datenerfassung, bei der Datenbereinigung oder auch beim Data-Labeling, wo Datensätze als Lernmaterial für junge AI-Systeme markiert und verwendbar gemacht werden.

Um systemische Verzerrungen in KI-Systeme bereits im Entstehen zu verhindern, müssen sie von Anfang an strategisch mitgedacht werden. Dies bedeutet, dass sich die Entscheidungsträger von Beginn an konsequent über die Risiken austauschen und das Thema entsprechend priorisieren sollten. Es braucht Antworten auf die Fragen, wo Verzerrungen entstehen können, wie sie wahrscheinlich aussehen und was potenzielle Konsequenzen wären. Wie könnten etwa bei einem Handelsunternehmen fehlerhafte Produktempfehlungen entstehen und welche Folgen hätte das? Und wie sieht es bei einem KI-System für das Bewerber-Management aus? Mit so einer Analyse ist es dann möglich, eventuelle Verzerrungsmuster abzusehen und entsprechend gegenzusteuern.

KI mittels Risikomanagement berücksichtigen

Dies ist aber nur der Anfang: Daneben braucht es unbedingt organisationsübergreifende Testprozesse, die die Ergebnisse der KI-Systeme im Tagesgeschäft durchgehend überprüfen und entstehende Biases melden. KI-Systeme entwickeln sich weiter und benötigen aus diesem Grund eine entsprechend transparente und umfassende Selbstkontrolle, die engmaschig in das gesamte Risikomanagement der Organisation eingebunden ist. Dazu gehört etwa eine genaue und eingehende Analyse der eigenen Datenbasis, aus der sich das KI-System nährt, eine regelmäßige Überprüfung der Entscheidungsmodelle auf Grundlage neuer Fakten und Vorgaben sowie klare Verantwortlichkeiten und Prioritäten, die etwaige Anpassungen schnell und verlässlich umsetzen können.

Zu einer ersten grundlegenden Einschätzung der Lage können die fünf folgenden Fragen dienen:

  1. Wie ist das Mischverhältnis der verschiedenen Personengruppen, aus denen sich die Datenbasis zusammensetzt?
  2. Nach welchen Kriterien wird sortiert und sind sie noch gültig?
  3. Ist die genaue Funktionsweise der Algorithmen bekannt?
  4. Wann wurden die Analytics-Systeme zuletzt angepasst und hat sich seitdem etwas geändert?
  5. Gibt es regulative Neuerungen, die in die Systeme eingepflegt werden müssen?

Es wird deutlich, dass es sich beim Versuch, die Verzerrung von KI-Systemen zu verhindern, um einen umfassenden, fortlaufenden und strategisch orientierten Prozess handelt – und keinesfalls um ein einmaliges Projekt. Das obere Management muss die Führung bei der Gestaltung verzerrungsfreier KI übernehmen und die Mitarbeiter ihrer Organisation eng einbinden – schließlich stellen neue Ergebnisse zu möglichen Verzerrungen bei KI-Systemen auch neue Impulse für andere Bereiche dar. Menschen und komplett oder zumindest teilweise autonom arbeitende Systeme sollten im Optimalfall organisch ineinandergreifen, um den Mitarbeitern zu erlauben, die Ergebnisse der Algorithmen verstehen und umsetzen zu können.

Die Schritte, die es braucht, um Biases und mögliche fehlerhafte Entscheidungen von KI-Systemen immer weiter zurückzudrängen, sind ernstzunehmende Herausforderungen für Organisationen. Aber werden sie dennoch erfolgreich umgesetzt, machen sie den Weg frei für eine KI, die allen Menschen gleichermaßen dient – ohne Vorurteile und Biases – und damit die Gesellschaft besser macht. Denn Menschen sind fehlbar, Maschinen aber auch – und das Potenzial von beiden ist und bleibt riesig.

Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Schreib den ersten Kommentar!

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!

Hey du! Schön, dass du hier bist. 😊

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team bestehend aus 65 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Danke für deine Unterstützung.

Digitales High Five,
Stephan Dörner (Chefredakteur t3n.de) & das gesamte t3n-Team

Anleitung zur Deaktivierung