Fehlerhafter Algorithmus: Uniklink Stanford sollte nur 7 Ärzte direkt impfen
Seit nach und nach alle Länder die Impfstoffe gegen Covid-19 zulassen und in die Impfzentren ausliefern, ist es die große Frage: Welche Bevölkerungsgruppe wird wann geimpft und warum? Es mag naheliegend erscheinen, diese Entscheidung einem Algorithmus zu überlassen – gelten sie doch als objektiv und unparteiisch. Dass das nicht so einfach ist, zeigt ein Fall aus dem Universitätskrankenhaus im kalifornischen Stanford.
Algorithmus will nur 7 Leute impfen, die direkt mit Patienten arbeiten
Der Algorithmus, der herausarbeiten sollte, welche Angestellten des Stanford University Medical Center die zunächst 5.000 Impfdosen gegen Covid-19 erhalten sollen, hat lediglich sieben Mitarbeitende ausgewählt, die als Assistenzärztinnen und -ärzte direkt mit Infizierten arbeiten. Außerdem soll der Algorithmus Mitarbeitende für die Impfung vorgeschlagen haben, die seit Beginn der Pandemie von zu Hause aus arbeiten und die keinen direkten Kontakt mit Patienten hätten. Das hatte zu heftigen Protesten geführt, in deren Konsequenz das Krankenhaus den Fehler eingestanden und eine Neuevaluierung versprochen hat.
Warum der Algorithmus seine Entscheidung so traf, konnte inzwischen auch ermittelt werden. Einer E-Mail zufolge, die NPR vorliegt, soll neben dem Alter auch der zugewiesene Ort, an dem die Mitarbeitenden eingesetzt sind, ein Kriterium gewesen sein. Assistenzärztinnen und -ärzten sowie Pflegepersonal soll jedoch im System kein fester Einsatzort zugewiesen gewesen sein. Deshalb und wegen des gerade bei den Assistenzärztinnen und -ärzten jungen Alters seien viele von ihnen im Algorithmus weit unten einpriorisiert worden. Das Krankenhaus arbeite bereits an einer überarbeiteten Liste.
Algorithmen entscheiden immer wieder falsch
Wissenschaftler und Experten warnen immer wieder davor, dass Algorithmen deutlich vorurteilsbehafteter seien, als viele gemeinhin annähmen. So gibt es regelmäßig Fälle, in denen künstliche Intelligenzen beim Bewerbungsprozess Frauen benachteiligen, Bias-Fehler quasi einprogrammiert werden oder in Tests nicht mit unterschiedlichen Hautfarben gearbeitet wird. Auch die jeweilige Landessprache kann eine Rolle spielen. Diesen Problemen kann nur mit diversen Teams und Führungsetagen begegnet werden.