Anzeige
Anzeige
Ratgeber

Wie lassen sich Bias-Fehler bei KI-Applikationen verhindern?

Um Menschen vor Diskriminierung durch künstliche Intelligenz zu schützen, stehen Unternehmen in der Verantwortung, Bias-Fehler in Applikationen und digitalen Services auf ein Minimum zu reduzieren.

Von Jan Wolter
5 Min.
Artikel merken
Anzeige
Anzeige

Künstliche Intelligenz muss programmiert und trainiert werden. (Bild: maxuser / shutterstock)

Künstliche Intelligenz (KI) ist seit Jahren ein viel genutztes Buzzword und wird immer und überall verwendet, um Dienste und Services „aufzuwerten“. Doch auch wenn die Technologie in manchen Unternehmen noch eher Schein als Sein ist: Ihr gehört die Zukunft. Schon heute durchdringt sie nahezu alle Bereiche unseres Lebens – ob in Form von Newsfeeds, Chatbots, Serienvorschlägen bei Netflix, bei der Diagnose von Krankheiten oder auch als Einparkhilfe. Der Einsatz und Einfluss von KI wird sich auch in den nächsten Jahren stetig ausweiten. Im Rahmen der „State of AI in the Enterprise Survey – 3rd Edition“ von Deloitte, bei der auch rund 200 Interviews mit deutschen Unternehmen geführt wurden, gaben 79 Prozent der Befragten an, dass die Technologie als wesentlicher Faktor für einen nachhaltigen Geschäftserfolg gilt. Neben dem enormen Potenzial von KI steht jedoch auch die Gefahr von vorurteilsbeladenen Algorithmen im Raum. Grund genug, sich mit den Ursachen des sogenannten Bias, der Diskriminierung durch künstliche Intelligenz, auseinanderzusetzen. Denn eines muss klar sein: Künstliche Intelligenz wird nicht von selbst schlau und trifft die vermeintlich „richtigen“ Entscheidungen. Sie muss programmiert und trainiert werden. Und dabei sollten Fehlerquellen möglichst zu Beginn identifiziert und ausgemerzt werden. Einmal implementiert, lässt sich der Bias nämlich nur äußerst schwierig wieder beheben.

Bias hat viele Gesichter

Wie genau entsteht nun aber der Bias in künstlicher Intelligenz? Um das zu verstehen, muss man einen Blick sowohl auf den Entwicklungsprozess als auch auf den Anwendungsfall werfen. Im Entwicklungsprozess werden an sich zwei Dinge benötigt: ein Algorithmus und eine Datenbasis, mit der er entwickelt und trainiert wird, um einen bestimmten Output zu generieren. Bei der Entwicklung des Algorithmus kommt es stark auf das Bewusstsein und das ethische Verständnis des Programmierers an. Besonders der Ziel-Output sollte mit Bedacht gewählt werden. Deutlich wird das beispielsweise im digitalen Gesundheitsbereich. Hier kann ein „Optimierungs-Bias“ schwerwiegende Folgen haben, wenn die Software auf Kosteneffizienz oder Überlebenschancen hin optimiert eine ungewollte Triage vornimmt.

Anzeige
Anzeige

Damit ist der Purpose, also das Ziel des Algorithmus, eine wichtige Stellschraube zur Verhinderung von Bias. Gleichzeitig gibt der Programmierer den Input, also die Variablen und Proxys vor. Gerade Letztere sind per Definition nicht präzise messbar und werden per Annahme definiert (eine Proxy-Variable wäre beispielsweise das Einkommen als Indikator für beruflichen Erfolg). Zusammen mit der Datenbasis, auf die weiter unten eingegangen werden soll, entsteht eine technisch produzierte unbewusste Verzerrung („Unconscious Bias“). Ein Beispiel macht den Fall etwas klarer: Nehmen wir an, es soll ein Algorithmus geschrieben werden, der Personalabteilungen von etablierten Großkonzernen dabei helfen soll, die besten Kandidaten und Kandidatinnen für Führungspositionen zu finden. Dafür lernt das System auf Basis von vorhandenen historischen Daten aus den bisher getroffenen Personalentscheidungen. Da Diskriminierung verhindert werden soll, erhält der Entwickler den Auftrag, die Variable „Geschlecht“ auf jeden Fall auszuschließen. Dennoch werden am Ende Frauen bei der Personalentscheidung benachteiligt. Was ist passiert? Im Grunde zwei Dinge: Erstens sind in den historischen Daten Frauen in Führungspositionen vermutlich stark unterrepräsentiert, was den Algorithmus dazu verleitet, anzunehmen, dass Frauen nicht geeignet für den Job sind. Der Bias entsteht hier also in der Entwicklung. Zweitens macht sich das System Proxys zunutze, um trotz des Ausschlusses der Variable „Geschlecht“ die Frauen als solche zu identifizieren und damit auszusortieren. Hier diskriminiert der Algorithmus in der Anwendung.

Die Rolle von Test- und Trainingsdaten

Die genannten Beispiele zeigen, dass sich Verzerrungen auf viele verschiedene Arten in Algorithmen einschleichen können: Sei es durch ungenügende Spezifikation des Purpose, die Ignoranz gegenüber statistischen Voreingenommenheiten oder die Reproduktion von etablierten Vorurteilen. In den meisten Fällen spielen jedoch die begrenzten oder mangelhaften Trainingsdaten eine ausschlaggebende Rolle. In der Informatik spricht man hier vom GIGO-Prinzip (Garbage In-/Garbage Out): Mangelnde Qualität des Inputs führt zu mangelhaftem Output. Das liegt daran, dass ein KI-System, um Muster zu erkennen und Vorhersagen zu treffen, auf Datenmengen angewiesen ist, von denen es „richtiges Verhalten“ lernen kann. Wenn ein KI-System in einer künstlichen Laborumgebung mit Daten aufgebaut wird, die nicht repräsentativ für die Zielgruppe sind, oder noch schlimmer, wenn die Muster in den Daten Vorurteile widerspiegeln, werden die Entscheidungen der KI ebenfalls beeinträchtigt. Eine Muster-Datenstrategie für das Training gibt es dabei nicht. Die Aufbereitung folgt jedoch in der Regel stets demselben Schema:

Anzeige
Anzeige
  1. Der ETL-Prozess: Um die gewünschten Trainingsdaten zu erhalten, müssen diese aus verschiedenen Bezugssystemen (ERP, CRM sowie externen Datenquellen) extrahiert, auf das gleiche Format transformiert und in die Testumgebung geladen werden.
  2. Cleaning und Labeling: Bei der Reinigung der Daten werden Duplikate und Fremddaten entfernt. In einem zweiten Schritt werden sie für die Trainingszwecke beschriftet und mit für Trainingszwecke relevanten Anmerkungen versehen. Hierbei gilt es auch, festzulegen, was Input- und was Output-Variablen sind.
  3. Enhancing und Filtering: Sind Datensätze nicht divers genug, müssen sie in einem dritten Schritt angereichert beziehungsweise gewichtet werden, um Unterrepräsentanz zu vermeiden.

Die so entstehenden Daten gilt es dann zu teilen, nämlich in Trainingsdaten, auf die das Modell zur Übung angewendet wird, und auf Testdaten, mit denen die Funktionsfähigkeit des Modells überprüft wird.

Anzeige
Anzeige

Mit Diversität gegen Verzerrung

Besonders beim Labeling der Daten, aber auch bei der Überprüfung des Outputs, empfiehlt es sich, das Team möglichst divers zu gestalten. Unternehmen benötigen eine 360-Grad-Sicht auf die eigenen Daten, um jeden Datenpunkt mit den richtigen Markierungen versehen zu können. Bedingt durch Faktoren wie Ethnie, Geschlecht oder Herkunft interpretiert jeder Mensch Daten anders. Hinzu kommt das Problem des Human Bias: Wir sind geprägt von allgegenwärtigen und oft tief verwurzelten Vorurteilen gegenüber bestimmten Gruppen, was zu einer Reproduktion und Verstärkung in Computermodellen führen kann. Vielfältige Perspektiven und diverse Teams sind daher entscheidend. Ebenso beim Testing. Hier spricht man von der Ground Truth, also dem Abgleich der Genauigkeit des Ergebnisses, das die KI erzeugt, mit der Realität. Dieser KI-Output sollte regelmäßig von einem großen und diversen Team auf Bias-Fehler überprüft werden.

Verzerrungen in Algorithmen können von nicht repräsentativen oder unvollständigen Trainingsdaten, aber auch dem Vertrauen auf fehlerhafte Informationen, die historische Ungleichheiten widerspiegeln, herrühren. Wenn sie nicht überprüft werden, können voreingenommene Algorithmen zu Entscheidungen kommen, die auch ohne die Absicht des Programmierers diskriminieren und kollektive, disparate Auswirkungen auf bestimmte Personengruppen haben können.

Mehr zu diesem Thema
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Schreib den ersten Kommentar!
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige