
Entscheidungen, die eine KI trifft, sind tendenziell nicht objektiver als Entscheidungen, die Menschen treffen. (Foto: Shutterstock / metamorworks)
Ein neuer Bericht von Human Rights Watch bemängelt, dass ein von der Weltbank finanziertes algorithmisches System zur Verteilung von Sozialhilfe in Jordanien die Armut auf unfaire und ungenaue Weise bewertet. Das habe laut den Menschenrechtlern zur Folge, dass Familien, die eigentlich für eine finanzielle Unterstützung infrage kämen, letztlich davon ausgeschlossen würden.
Vorwurf: Takaful setzt falsche Gewichtungen
Dabei stuft das algorithmische System namens Takaful Familien, die Hilfe beantragen, nach einem geheim gehaltenen Verfahren ein. Dabei werden 57 sozioökonomische Indikatoren gewichtet.
Antragsteller:innen kritisieren die Berechnung, die angeblich nicht der Realität entspreche und deshalb die wirtschaftliche Situation der Menschen zu stark vereinfache. Das sei mindestens ungenau, oft geradezu ungerecht.
Dabei hat sich die Weltbank Takaful über eine Milliarde Dollar kosten lassen. Die Weltbank finanziert zudem ähnliche Projekte in acht weiteren Ländern des Nahen Ostens und Afrikas. Aufgrund der Beschwerden hat sich Human Rights Watch das System angesehen und dabei mehrere grundlegende Probleme festgestellt. Es sei klar, dass es mindestens zu Verzerrungen und Ungenauigkeiten kommen müsse, so die Menschenrechtsorganisation.
Zuverlässigkeit der Indikatoren zweifelhaft
So würden Antragsteller:innen beispielsweise gefragt, wie viel Wasser und Strom sie verbrauchen. Dabei handelt es sich um zwei der Indikatoren, die in das Bewertungssystem eingehen.
Human Rights Watch zweifelt indes die Zuverlässigkeit dieser Indikatoren mit Blick auf die Armutsbewertung an. Andere Antragsteller:innen glaubten, dass die reine Tatsache, dass sie ein Auto besaßen, sich negativ auf ihre Einstufung auswirkte. Dabei spielte es offenbar keine Rolle, wie alt und in welchem Zustand sich das Auto befand oder ob es für den Broterwerb der Familie unerlässlich war.
Der Bericht wird deutlich: „Hinter dieser Fassade der statistischen Objektivität verbirgt sich eine kompliziertere Realität: Der wirtschaftliche Druck, dem die Menschen ausgesetzt sind, und die Art und Weise, wie sie kämpfen, um über die Runden zu kommen, sind für den Algorithmus häufig unsichtbar.“
Bericht ist keine Analyse des Systems
Zu berücksichtigen ist, dass der Bericht ausschließlich auf 70 Interviews basiert, die Human Rights Watch in den letzten zwei Jahren geführt hat. Er liefert weder eine quantitative noch eine qualitative Bewertung.
Das liegt nicht zuletzt daran, dass die Weltbank und die jordanische Regierung weder die Liste der 57 Indikatoren noch eine Aufschlüsselung der Gewichtung der Indikatoren oder umfassende Daten über die Entscheidungen des Algorithmus veröffentlicht haben.
Die Weltbank will an dem Verfahren festhalten. Als Reaktion auf den Bericht erklärte sie, im Juli 2023 zusätzliche Informationen über das Takaful-Programm veröffentlichen zu wollen. Klar sei aber ihr fortbestehendes „Engagement, die Umsetzung des universellen Sozialschutzes voranzutreiben und den Zugang zum Sozialschutz für alle Menschen zu gewährleisten“.
Forscher:innen, die sich mit Fragen der KI-Ethik beschäftigen, fordern schon seit langem eine genauere Prüfung des zunehmenden Einsatzes von Algorithmen in Wohlfahrtssystemen.