Wissenschaftler warnen vor Rassismus: KI bestimmt Hautfarbe aus Röntgenbildern
Damit hatte das internationale Forschungsteam aus Australien, Kanada und den USA nicht gerechnet: Nachdem sie einer künstlichen Intelligenz die Röntgenaufnahmen diverser Patienten zugeführt hatten, war die in der Lage, die Ethnie der Aufgenommenen zu bestimmen, obwohl keine weiteren Daten, aus denen das hätte geschlossen werden können, mitgeliefert worden waren.
KI erkennt Hautfarbe, ohne Daten zu haben, die den Schluss zulassen
Die gefundenen Ergebnisse will das Team nun als Warnung an die Wissenschaft verstanden wissen. Es müsse immer mitgedacht werden, dass selbst-lernende Algorithmen in der Medizin dazu eingesetzt werden könnten, Menschen unterschiedlicher Hautfarbe unterschiedlich zu behandeln. Das könne selbst dann passieren, wenn die Algorithmen von ihren Erschaffern gar nicht dazu ausgelegt seien.
Als geradezu erschreckend darf wohl bezeichnet werden, dass das Forschungsteam selbst nicht erkennen konnte, wieso die KI in der Lage war, die Ethnie zu bestimmen. Schon vom Studiendesign her hatten sie dafür gesorgt, dass indirekte visuelle Merkmale nicht dazu genutzt werden konnten, etwa auf Daten, zu denen ethnische Bezüge bestehen, wie den BMI oder die Knochendichte sowie weitere Diagnosen zu schließen. Die Einzelheiten beschreibt das Team in einem auf dem Preprint-Server Arxiv veröffentlichten Papier (PDF).
KI-gesteuerte Benachteiligung nach Hautfarbe ist Realität
Nun könnte man einwenden, dass eine unbeabsichtigte Klassifizierung nach Hautfarbe zunächst kein Problem darstellt. Tatsächlich kann es jedoch durch die unbeabsichtigte Klassifizierung zu einer ebenso unbeabsichtigten Benachteiligung kommen. In einem im Jahr 2019 bekannt gewordenen Fall eines großen Krankenhauses in den Vereinigten Staaten von Amerika hatte eine KI, die eingesetzt wurde, um Risikopatienten speziellen Vorsorgeprogrammen zuzuführen, eindeutig weiße Patienten bevorzugt und in deutlich größerem Umfang den Sonderprogrammen zugeführt als schwarze Patienten von gleicher Gesundheit.
Wie Wired berichtet, war die Bevorzugung weißer Patienten keine absichtliche rassistische Diskriminierung, sondern Ausfluss des Parametersatzes, den die KI zugrunde gelegt hatte. Dabei scheint auch der Versicherungsstatus und damit der Aspekt der Kostendeckung eine Rolle gespielt zu haben. Und da weiße Patienten in den USA tendenziell besser krankenversichert sind, kann es zu der Benachteiligung gekommen sein.
KI-Ethik reißt mit Lösungen auch neue Probleme auf
Für KI-Ethiker ist das Problem nicht neu, sondern lediglich eines von vielen. So gibt es bereits Lösungsansätze. Der vielversprechendste besteht wohl darin, die Datenbasis, anhand der das Training der KI stattfindet, sozusagen zu neutralisieren. Dazu würde zunächst ein Training erfolgen, um die daraus resultierenden Ergebnisse prüfen zu können. Wird dabei festgestellt, dass die Ausführung ethisch fragwürdige Ergebnisse hervorbringt, würde die Datenbasis an der erforderlichen Stelle angepasst. Dass diese Anpassungen wieder ihre eigenen ethischen Fragestellungen aufwerfen, darf nicht unbeachtet bleiben.
„KI-gesteuerte Benachteiligung nach Hautfarbe ist Realität“ vielleicht. Aber definitiv nicht in dem Beispiel aus dem Artikel. Die Behauptung wird im Artikel selbst widerlegt.
Ja, es wurden deutlich mehr Weiße als Schwarze den Sonderprogrammen zugeführt. Aber nein, die KI hat das nicht aufgrund der Hautfarbe entschieden sondern aufgrund des Versicherungsstatus. Wenn das ein Bestandteil zur Entscheidungsfindung ist, dann wurden Weiße nicht aufgrund ihrer Hautfarbe bevorzugt, sondern aufgrund ihrer finanziellen Situation. Die Diskriminierung war somit keine rassistische Diskriminierung, sondern eine finanzielle Diskriminierung.
Wenn die finanzielle Diskriminierung nun überproportional oft Schwarze trifft, dann ist das kein Problem der KI oder des Krankenhauses, sondern ein viel tiefer liegendes allgemeines gesellschaftliches Problem.
Und wenn eine KI aufgrund von Röntgenbildern die Ethnie erkennen kann, dann liegt das vermutlich daran, dass es zwischen verschiedenen Ethnien mehr Unterschiede als nur die Hautfarbe gibt.
Warum man dann davor warnt, dass Menschen unterschiedlicher Hautfarbe unterschiedlich behandelt werden könnten erschließt sich mir nicht. Sollte es nicht das Ziel sein, dass jeder Mensch die für ihn bestmögliche, individuelle (sprich unterschiedliche) Behandlung erhält?
Solange also nicht entschieden wird jemandem eine für ihn schlechtere Behandlung aufgrund der Hautfarbe zu geben spricht nichts gegen unterschiedliche Behandlungen.
Wäre ja noch schöner, wenn man den Leuten sagen muss: „Wir haben hier zwar eine Behandlung, die nach unserem Wissen für Angehörige Ihrer Ethnie besser anschlägt als die andere Behandlung, aber wir haben uns entgegen besseren Wissens dazu entschlossen, dass jeder gleich ist und geben Ihnen deswegen die andere, für Menschen einer anderen Ethnie bessere Behandlung, um Sie nicht zu diskriminieren.“
Schließe mich Kommentar von Tony an.
Als Anwendungsentwickler muss ich immer wieder feststellen, dass KI der feuchte Traum vieler CEO’s, Vorstände und Investoren ist. Allerdings ist KI nicht KI, aber das kapiert die Gehaltsstufe nicht :)
Für die ist ein WordMacro schon #Magic#
Stupides ausgrenzen von Varianten, Filtern und Sortieren gekrönt mit etwas Stochastik ist meines Erachtens keine KI. (Touring Test *werfmichwegvorlachen*)
Echte KI könnte selbständig dazu lernen, sich Methoden bei bringen/verfeinern und autark agieren.
Das was bei Versicherungen abgeht ist EXCEL mit einem Hauch Datenbank.
Wie Tony richtig schreibt: Wenn sich Farbige größtenteils nur die Billigversion leisten können, die Auserwählten aber das Premium-Plus-Paket frequentieren … dann sieht das ein VBScript mit verbundenen Augen …
Generell ist für meinen Geschmack zu viel IT im Medizinbereich an der falschen Stelle im Einsatz.
Zudem kann ich Wörter wie KI und STARTUP nicht mehr hören ;)
Wo bleibt das große Projekt, wo man das Genom von möglichst vielen Menschen komplett in eine KI einspeist, und dazu noch 3D-Scans des Körper, Fotos (die 3D-Scans mit Fototextur sollten reichen) und alles was sich an Daten erheben lässt. Inkl. IQ (auch die Teil-Wertungen des IQ).
Und dann soll die KI nach den Genen suchen die das Aussehen, speziell des Gesicht bestimmen, und nach den Genen die für die Intelligenz wichtig sind.
Ich erinnere mich an Schätzungen vo9n „um die 3000“ Gene, und etwas neuer „um die 300“ Gene für die Intelligenz.
Mit diesen Erkenntnissen kann man dann nicht nur anhand der Gene exakt (der Lebenswandel, Fettleibigkeit, rauchen etc. kann das natürlich etwas variieren) das Gesicht für eine Fahndung ermitteln, sondern auch Human Genetic Design bezüglich des IQ vornehmen.
Aber natürlich kann man auch verhindern dass ein Mensch ästhetisch benachteiligt ist.
Ich stehe auf keiner der beiden Seiten, aber wenn normal oder gut aussehende darüber schwurbeln dass es darauf ja nicht ankäme, Bla-Blub, evtl. selbst noch akademisch/beruflich erfolgreich (was die Attraktivität erhöht…), ist das schon heuchlerisch.
Niemand sollte hässlich oder auch nur unterdurchschnittlich aussehen müssen, wenn es sich verhindern lässt. Und eine „gute Statur“ ist ja auch in Sachen Gesundheit kein Nachteil.