
Künstliche Intelligenz (KI) ist längst auch in der Medizin angelangt und kann Ärzte beispielsweise bei der Diagnose unterstützen. Der Einsatz der Technologie wirft aber euch ethische Fragen auf. Wem gehören die Daten eines Patienten? Wer überprüft Algorithmen, die am Ende möglicherweise selbständig Entscheidungen über die Gesundheit von Menschen treffen? Mit diesen Fragen hat sich auch die Weltgesundheitsorganisation WHO beschäftigt und dazu Ende Juni 2021 einen mehr als 160 Seiten starken Leitfaden herausgeben.
„Künstliche Intelligenz hat ein enormes Potenzial, die Gesundheitsversorgung und Medizin zu verbessern und allen Ländern zu helfen, eine universelle Gesundheitsversorgung zu erreichen“, heißt es im Vorwort des Dokuments, an dem Experten aus verschiedenen Fachrichtungen zwei Jahr lang gearbeitet haben. Aber die Organisation sieht auch Risiken. Vor allem wenn bestehende Vorurteile über Geschlecht oder ethnische Abstammung die Daten beeinflussen, mit denen die KI trainiert wird. Außerdem müssten Regierungen Sorge tragen, dass die digitale Kluft zwischen armen und reichen Ländern geschlossen wird. Durch den Ausschluss weiter Teile der Erde könnten am Ende auch Patienten aus wirtschaftlich stärkeren Regionen leiden.
WHO: 6 Grundsätze für den Einsatz von KI im Gesundheitswesen
In dem Dokument haben die WHO-Experten sechs Grundsätze für den ethischen KI-Einsatz formuliert. Der erste besagt, dass Maschinen nie die menschliche Autonomie aushebeln dürfen. Darunter verstehen die Autoren unter anderem, dass die KI nicht über Ärzte hinweg entscheidet. Außerdem müsse immer die informierte Einwilligung des Patienten vorliegen. Autonomie gelte darüber hinaus auch immer für die eigenen Gesundheitsdaten. Die müssten, so die WHO-Experten, von Gesetzwegen geschützt werden.
Der zweite Grundsatz orientiert sich am hippokratischen Eid: Auch eine KI dürfe niemals einem Menschen schaden zufügen. Um das zu garantieren, müssten Entscheidungen von Algorithmen immer wieder überprüft werden. Der dritte Grundsatz besagt, dass in der Medizin eingesetzte KI-Systeme immer ausreichend transparent sein und ihre Ergebnisse erklärbar bleiben müssen. Damit diese Transparenz sichergestellt werden kann, müsse es regelmäßige Überprüfungen geben.
Damit die Algorithmen im Gesundheitswesen auch wirklich dem Patienten dienen, fordert die WHO, dass Staaten entsprechende Kontrollinstanzen einführen. Außerdem müssten Entwickler sicherstellen, dass die verfügbaren Trainingsdaten keine einzelnen gesellschaftlichen Gruppen ausschließen. Auch hier müsse es immer wieder Kontrollen geben.
Als letzter Grundsatz wird das Prinzip der Nachhaltigkeit angesprochen. Laut WHO gab es in der Vergangenheit vor allem in Ländern mit unterfinanziertem Gesundheitswesen immer wieder Fälle, bei denen neue Technologien eingeführt wurden, die dann aber mangels Wartung nach einer Weile nicht mehr einsatzfähig waren. Dadurch, so die Experten, würden Ressourcen verschwendet, die am Ende besser für erprobte Behandlungsmethoden eingesetzt werden sollten.