GPT für Gesundheitsdaten: KI-Modell sagt Risiko für Krankheit und Tod voraus
Laut den Autoren der Studie ist das KI-Modell aber noch nicht bereit für den Einsatz in der Klinik. (Symbol-Foto: TSViPhoto / Shutterstock)
Ein internationales Forschungsteam aus Deutschland, Großbritannien und Dänemark hat ein KI-Modell vorgestellt, das den gesundheitlichen Zustand von Menschen für die nächsten 20 Jahre vorhersagen kann. Konkret gibt das Modell an, wie hoch das Risiko für über 1.000 Erkrankungen bei einzelnen Personen ist – und auch, ob sie in den nächsten 20 Jahren sterben. Das Echo von Expert:innen auf die Entwicklung ist gemischt: Einerseits kann das Modell wichtige gesundheitspolitische Einsichten bieten und Risiken aufzeigen, die bisher nicht erkannt wurden. Bisher gab es solche Vorhersage-Modelle nur für einzelne, spezifische Risiken. Erstmals kann auch das Zusammenwirken mehrerer Krankheiten berücksichtigt werden. Andererseits weckt es auch Begehrlichkeiten bei Versicherungen und Arbeitgebern.
Wie das GPT-Modell funktioniert
Das Modell mit dem Namen Delphi-2M beruht auf der Architektur von GPT-2, einem frühen, großen Sprachmodell von OpenAI. Analog zu Sprachmodellen wird es also mit einer Art Lückentext trainiert und muss anhand der Beispiele aus den Trainingsdaten das nächste Token vorhersagen. Allerdings bestehen die Trainingsdaten in diesem Fall nicht aus Text, sondern es sind Datensätze, die Alter, Geschlecht, verschiedene Gesundheitsdaten und das Auftreten oder Fehlen von 1.000 Krankheitsbildern (beziehungsweise die ICD-Diagnosecodes) enthalten. Und auch der Output ist etwas anders: Gibt man dem fertig trainierten Modell als Prompt solch einen Datensatz, gibt es für die nächsten 20 Jahre aus, welche Krankheiten wann auftreten werden.
Das Modell unterliegt also denselben Beschränkungen und Problemen, wie alle großen Sprachmodelle:
- die Qualität der Vorhersage hängt mit der Qualität der Trainingsdaten zusammen: schlechte Daten, schlechte Vorhersage.
- Die Trainingsdaten können verzerrt sein (Bias), was eine verzerrte Vorhersage nach sich zieht.
- Das Modell ist eine Black Box. Die Ergebnisse sind nicht erklärbar.
- Das Modell kann halluzinieren.
Woher die Trainingsdaten kommen: UK Biobank
Die Trainingsdaten stammen von 400.000 Personen aus der UK Biobank. Diese Datenbank wurde Anfang der 2000er Jahre eingerichtet, um Zusammenhänge zwischen Krankheiten und Gendaten zu untersuchen. Sie enthält die Gen- und Gesundheitsdaten von Freiwilligen, die anonymisiert wurden. Anschließend wurde das Modell an Daten von 1,9 Millionen Personen aus einem dänischen Krankheitsregister getestet.
Ergebnisse
Das Modell funktioniert vergleichsweise gut. Was konkret allerdings nur heißt, dass es genauso gut oder besser funktioniert, als Modelle, die nur einzelne Erkrankungen vorhersagen.
Je nach Erkrankung war die Vorhersagegenauigkeit zudem sehr unterschiedlich. Relativ sichere Vorhersagen schafft das Modell bei Erkrankungen mit klaren und konsistenten Verlaufsmustern, wie bei bestimmten Krebsarten und Herzinfarkten. Bei anderen Erkrankungen, wie beispielsweise psychischen Störungen oder Schwangerschaftskomplikationen, aber auch bei seltenen Erkrankungen, war die Vorhersage erwartungsgemäß schlechter. Die AUC (Area under Curve), ein Maß für die Qualität der Vorhersage, liegt durchschnittlich bei 0,76. Alles über 0,5 ist besser als geraten. Optimal wäre ein Wert von 1.
Zudem merken die Autoren selbst an, dass in der UK Biobank bestimmte Personengruppen, wie britische und ältere Menschen, über- und andere wiederum unterrepräsentiert sind.
Nutzen des Modells
Laut den Autoren der Studie ist das KI-Modell noch nicht bereit für den Einsatz in der Klinik. Es sollte weiter erforscht und mit zusätzlichen Daten, wie Blutwerten, ergänzt und optimiert werden. Dennoch sind sie mit dem Erfolg sehr zufrieden, denn das Modell zeige erstmals statistische Zusammenhänge zwischen verschiedenen Krankheitsbildern. Auch wenn es für die individuelle Vorhersage nicht gut geeignet ist, würde es statistische Analysen über ganze Populationen ermöglichen. Damit könnte man beispielsweise herausfinden, wo sich mit Prävention gezielt Risiken vermindern ließen. Zudem ließen sich mit dem Modell synthetische Daten erzeugen, mit denen andere, spezifische Medizin-Modelle trainiert werden könnten, ohne sensible Gesundheitsdaten zu verwenden.
Risiken und Nebenwirkungen
Gegenüber dem Science Media Center kommentierten eine Reihe von Experten die Entwicklung mit einem skeptischen, aber überwiegend positiven Tenor. Dr. Carsten Marr, Direktor des Institute of AI for Health, Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt, sagt: „Am Ende hängt es davon ab, welche Daten wir preisgeben wollen. Das Modell ist erstmal nur ein Werkzeug. Wie wir ein solches Werkzeug für unsere individuellen Gesundheitsdaten nutzen wollen und wie wir das Potenzial mit möglichen Gefahren abwägen wollen, müssen wir als Gesellschaft diskutieren. Aus meiner Sicht ist ein gut reguliertes Feld wie das europäische Gesundheitswesen ideal für die Anwendung von KI.“
Professor Dr. Robert Ranisch, Juniorprofessor für Medizinische Ethik mit Schwerpunkt auf Digitalisierung von der Universität Potsdam, warnt jedoch, dass „solche KI-Modelle falsche Begehrlichkeiten wecken – etwa bei Versicherungen oder Arbeitgebern, besonders über Deutschland hinaus. Dann geht es weniger darum, ob die Vorhersagen tatsächlich belastbar sind, sondern um die Illusion einer exakten Berechenbarkeit. Diese kann dazu führen, dass Menschen ungerechtfertigt benachteiligt werden. Deshalb müssen wir sehr genau überlegen, wo wir solche Modelle im Gesundheitssystem einsetzen wollen.“