Großbritannien: KI streicht Sozialleistungen und zeigt große Risiken der Technologie
Die Ergebnisse einer Untersuchung der britischen Zeitung The Guardian zeigen einen schwer kontrollierbaren und potenziell diskriminierenden Einsatz von Künstlicher Intelligenz in Ministerien und Polizeibehörden. The Guardian wirft der KI Voreingenommenheit und Ungleichbehandlung vor.
Ministerien in UK verwenden KI umfangreich
Wie die Zeitung feststellen konnte, nutzen Beamt:innen in Ministerien und Polizeibehörden KI in einer Reihe von Bereichen, vor allem aber dort, wo es darum geht, ihnen bei Entscheidungen in den Bereichen Sozialhilfe, Einwanderung und Strafjustiz zu helfen. Diese Hilfe scheint teils zu fragwürdigen, vor allem diskriminierenden Ergebnissen zu führen.
So soll etwa ein vom Ministerium für Arbeit und Renten (DWP) verwendeter Algorithmus fälschlich dazu geführt haben, dass Dutzenden von Menschen die Sozialleistungen gestrichen wurden. In einem anderen Fall soll ein von der Polizei eingesetztes Gesichtserkennungsprogramm unter bestimmten Einstellungen schwarze Gesichter häufiger als weiße markiert haben.
Wiederum ein anderer Algorithmus, der vom Innenministerium verwendet wird, um Scheinehen zu erkennen, wählt offenbar willkürlich unverhältnismäßig viele Menschen bestimmter Nationalitäten aus. Das scheint allerdings nicht am Algorithmus selbst zu liegen.
Weniger KI das Problem, eher der Trainingsdatensatz
Wie der Guardian recherchieren konnte, liegt der Ursprung des Problems aller Voraussicht nach in dem verwendeten Trainingsdatensatz. Generell gilt, dass Daten im Trainingsdatensatz mit hoher Wahrscheinlichkeit einen großen Einfluss auf das schlussendlich Ergebnis haben werden.
Großbritannien ist nicht das erste Land, das schlechte Erfahrungen mit der Verwendung von KI für den staatlichen Bereich macht. So hatte sich der Einsatz von KI im öffentlichen Sektor schon mehrfach als umstritten erwiesen.
In den Niederlanden hatten die dortigen Steuerbehörden KI eingesetzt, um potenziellen Betrug bei der Gewährung von Kinderbetreuungsleistungen zu erkennen. Nachdem sie wiederholt falsche Entscheidungen getroffen hatten, waren sie zu einer Geldstrafe von 3,7 Mio. EUR verurteilt worden.
Kritiker fürchten Skandal
Im Vereinigten Königreich mehren sich die Stimmen, die vor einem ähnlichen Skandal warnen. Britische Beamte würden mithilfe von schlecht verstandenen Algorithmen lebensverändernde Entscheidungen treffen, ohne dass die von diesen Entscheidungen betroffenen Menschen überhaupt davon wissen, mahnen sie.
Ein unabhängiges Beratungsgremium der Regierung, das öffentliche Einrichtungen beim Einsatz von KI im Auge behalten sollte, war zu Beginn dieses Jahres abgeschafft worden.
Dabei setzen Behörden weltweit immer stärker auf die Unterstützung durch den Algorithmus. Der kann in manchen Fällen tatsächlich sinnvoll, transparent und einfach im Einsatz sein. Das gilt etwa bei elektronischen Passkontrollen oder bei der Verwendung von Kameras zur Nummernschilderkennung.
KI-Einsatz weit verbreitet
Um zu beurteilen, wo in Großbritannien überall KI eingesetzt wird, hatte der Guardian von der Regierung Auskunft verlangt und auch bekommen. Dabei zeigt sich, dass KI in Großbritannien großzügig eingesetzt wird, dabei aber selbst in den Reihen der Regierung nicht unumstritten ist.
Eine interne Auswertung des Innenministeriums, die der Guardian einsehen konnte, zeigt, dass die KI in etlichen Zusammenhängen unverhältnismäßig viele Menschen aus Albanien, Griechenland, Rumänien und Bulgarien zur Kontrolle auswirft oder direkt im Verfahren benachteiligt. Das betrifft etwa die Gewährung von Sozialleistungen oder die Beurteilung potenzieller Scheinehen.
Das DWP weist die Vorwürfe indes weit von sich und behauptet, dass ihr Algorithmus die Nationalität nicht berücksichtige. Allerdings wollten weder das DWP noch das Innenministerium Einzelheiten über die Funktionsweise der automatisierten Verfahren bekannt geben.
Sowas hätte ich auch gern, um
a) schlechte Erinnerungsvermögen wieder herzustellen,
b) diverse Augiasställe in D auszumisten.
Mir viele sicher noch fiel mehr ein
Eine fehlerhafte bzw. unausgegorene KI ist natürlich nicht geeignet für Behörden.
Auch wenn man mich jetzt vermutlich in irgendeine Schublade stecken wird: Weshalb sollte zum Beispiel bei den Scheinehen es zwingend gleichmäßig verteilt sein? Wenn es bei mancher Herkunft eben öfter vorkommt als bei anderen, ist es ggf. einfach so?
Aber das würde ja dem woken Weltbild widersprechen befürchte ich…