Wie du Vorurteilen in KI-Systemen vorbeugen kannst

(Grafik: Shutterstock)
Man stelle sich vor: Ein soziales Netzwerk hat ein Problem mit Hasskommentaren und kriminellen Inhalten. Die Datenmenge ist aber zu groß, als dass Menschen alle Posts prüfen könnten. Eine Lösung liegt im Einsatz von künstlicher Intelligenz: Entsprechende Programme durchforsten selbstständig alle Inhalte und löschen oder markieren jene, die sich nicht an die Richtlinien halten – schnell, zuverlässig und vor allem absolut neutral und ausgewogen.
Menschliche Schwachstellen ausgleichen
Dabei ist neben der reinen Rechenleistung vor allem ein Faktor für den Erfolg von KI ausschlaggebend. Die Softwarelösungen können nämlich typisch menschliche Schwachstellen ausgleichen und das ist gerade bei automatisierter Entscheidungsfindung enorm wichtig. Denn der Mensch ist fehlbar und oft von bewussten oder unbewussten Vorurteilen – sogenannten Biases – geleitet. Maschinen dagegen entscheiden hundertprozentig rational. KI-Systeme kennen keinen Rassismus und Sexismus – zumindest in der Theorie.
In der Praxis hingegen sieht das unter Umständen ganz anders aus. Man braucht nicht lange suchen, um Beispiele für katastrophale KI-Fehlschläge zu finden: Die Gesichtserkennungssoftware etwa, die Menschen mit dunkler Hautfarbe nicht erkennen konnte, oder die KI-Lösung, die in Florida kriminelles Verhalten voraussagen sollte und laut Propublica Afroamerikaner doppelt so häufig fehlerhaft mit einem hohen Kriminalitätsrisiko markierte. Logisch weitergeführt könnten solche Fehlentscheidungen ebenso bei militärischen Anwendungen oder bei Banksystemen entstehen – mit entsprechend fatalen Konsequenzen.
KI-Systeme existieren nicht in einem Vakuum
Die Ursache liegt in der Kluft zwischen Theorie und Praxis: Denn KI-Systeme – ganz egal, wie gut sie gemeint sind – existieren nicht in einem Vakuum. Sie reproduzieren stattdessen genau die Perspektiven und Schwerpunkte, die in ihnen angelegt wurden und in deren Umfeld sie sich weiterentwickeln. Anders ausgedrückt: Wenn der Quellcode bereits eine ungleich gewichtete Wahrnehmung von Input vorgibt oder bestimmte Ergebnisse bevorzugt, wird sich das auch in den Ergebnissen zeigen.
Und selbst wenn die KI-Software in sich stimmig programmiert wurde, kann sie sich ins Negative verformen, wenn die Daten, auf deren Basis das System lernt und sich eigenständig weiterentwickelt, von Biases durchzogen sind – beispielsweise wenn bestimmte Personengruppen wie Frauen, People of Color, Senioren oder Alleinerziehende kaum in Datensätzen vorkommen und sich die Systeme ihren Bedürfnissen entsprechend wenig anpassen. Diese Biases können an praktisch jedem Punkt der Prozessualisierung von KI-Systemen entstehen: sei es bei der Datenerfassung, bei der Datenbereinigung oder auch beim Data-Labeling, wo Datensätze als Lernmaterial für junge AI-Systeme markiert und verwendbar gemacht werden.
Um systemische Verzerrungen in KI-Systeme bereits im Entstehen zu verhindern, müssen sie von Anfang an strategisch mitgedacht werden. Dies bedeutet, dass sich die Entscheidungsträger von Beginn an konsequent über die Risiken austauschen und das Thema entsprechend priorisieren sollten. Es braucht Antworten auf die Fragen, wo Verzerrungen entstehen können, wie sie wahrscheinlich aussehen und was potenzielle Konsequenzen wären. Wie könnten etwa bei einem Handelsunternehmen fehlerhafte Produktempfehlungen entstehen und welche Folgen hätte das? Und wie sieht es bei einem KI-System für das Bewerber-Management aus? Mit so einer Analyse ist es dann möglich, eventuelle Verzerrungsmuster abzusehen und entsprechend gegenzusteuern.
KI mittels Risikomanagement berücksichtigen
Dies ist aber nur der Anfang: Daneben braucht es unbedingt organisationsübergreifende Testprozesse, die die Ergebnisse der KI-Systeme im Tagesgeschäft durchgehend überprüfen und entstehende Biases melden. KI-Systeme entwickeln sich weiter und benötigen aus diesem Grund eine entsprechend transparente und umfassende Selbstkontrolle, die engmaschig in das gesamte Risikomanagement der Organisation eingebunden ist. Dazu gehört etwa eine genaue und eingehende Analyse der eigenen Datenbasis, aus der sich das KI-System nährt, eine regelmäßige Überprüfung der Entscheidungsmodelle auf Grundlage neuer Fakten und Vorgaben sowie klare Verantwortlichkeiten und Prioritäten, die etwaige Anpassungen schnell und verlässlich umsetzen können.
Zu einer ersten grundlegenden Einschätzung der Lage können die fünf folgenden Fragen dienen:
- Wie ist das Mischverhältnis der verschiedenen Personengruppen, aus denen sich die Datenbasis zusammensetzt?
- Nach welchen Kriterien wird sortiert und sind sie noch gültig?
- Ist die genaue Funktionsweise der Algorithmen bekannt?
- Wann wurden die Analytics-Systeme zuletzt angepasst und hat sich seitdem etwas geändert?
- Gibt es regulative Neuerungen, die in die Systeme eingepflegt werden müssen?
Es wird deutlich, dass es sich beim Versuch, die Verzerrung von KI-Systemen zu verhindern, um einen umfassenden, fortlaufenden und strategisch orientierten Prozess handelt – und keinesfalls um ein einmaliges Projekt. Das obere Management muss die Führung bei der Gestaltung verzerrungsfreier KI übernehmen und die Mitarbeiter ihrer Organisation eng einbinden – schließlich stellen neue Ergebnisse zu möglichen Verzerrungen bei KI-Systemen auch neue Impulse für andere Bereiche dar. Menschen und komplett oder zumindest teilweise autonom arbeitende Systeme sollten im Optimalfall organisch ineinandergreifen, um den Mitarbeitern zu erlauben, die Ergebnisse der Algorithmen verstehen und umsetzen zu können.
Die Schritte, die es braucht, um Biases und mögliche fehlerhafte Entscheidungen von KI-Systemen immer weiter zurückzudrängen, sind ernstzunehmende Herausforderungen für Organisationen. Aber werden sie dennoch erfolgreich umgesetzt, machen sie den Weg frei für eine KI, die allen Menschen gleichermaßen dient – ohne Vorurteile und Biases – und damit die Gesellschaft besser macht. Denn Menschen sind fehlbar, Maschinen aber auch – und das Potenzial von beiden ist und bleibt riesig.