Anzeige
Anzeige
MIT Technology Review Feature

Fehlende Patientenverfügung: Könnte KI bei dieser schwierigen Frage helfen?

Ethiker hoffen, dass ein „digitaler psychologischer Zwilling“ Ärzten und Familienmitgliedern dabei hilft, Entscheidungen für Menschen zu treffen, die nicht mehr für sich selbst sprechen können.

Von MIT Technology Review Online
11 Min.
Artikel merken
Anzeige
Anzeige

Was tun am Ende des Lebens?

Vor ein paar Monaten erlitt eine Frau Mitte 50 – wir nennen sie hier Sophie – einen hämorrhagischen Schlaganfall. Es begann eine Hirnblutung. Sophie wurde einer Operation unterzogen, aber ihr Herz hörte auf zu schlagen. Es kam zu erheblichen Hirnschäden. Sie war nicht mehr ansprechbar. Sie konnte weder einen Finger bewegen noch ihre Augen öffnen, wenn man sie darum bat, und sie zuckte nicht zusammen, wenn man sie in die Haut drückte. Sophie benötigte eine Trachealkanüle in ihrem Hals, um atmen zu können, und eine Sonde, um Nahrung direkt in ihren Magen zu pumpen, da sie nicht mehr schlucken konnte. Die große Frage war: Wie sollte es mit ihrer medizinischen Versorgung weitergehen?

Anzeige
Anzeige

Diese schwierige Entscheidung wurde, wie in solchen Situationen üblich, Sophies Familienmitgliedern überlassen, erinnert sich Holland Kaplan, Ärztin für innere Medizin am Baylor College of Medicine, der an Sophies Behandlung beteiligt war. Aber die Familie konnte sich nicht einigen. Sophies Tochter beharrte darauf, dass ihre Mutter keine medizinischen Behandlungen mehr erhalten und in Ruhe sterben wolle. Ein anderes Familienmitglied widersprach dem vehement und bestand darauf, dass Sophie „eine Kämpferin“ sei. Die Situation war für alle Beteiligten, auch für die Ärzte, sehr belastend.

Entscheidungen am Ende des Lebens können für Stellvertreter, also die Personen, die diese Entscheidungen im Namen einer anderen Person treffen müssen, extrem belastend sein, sagt David Wendler, Bioethiker an den US National Institutes of Health. Wendler und seine Kollegen arbeiten daher an einer Idee, die die Sache erleichtern soll: ein auf Künstlicher Intelligenz basierendes Werkzeug, das den Angehörigen helfen kann, vorherzusagen, was die Patienten selbst in einer bestimmten Situation wollen würden.

Anzeige
Anzeige

Das Tool wurde noch nicht fertiggestellt. Wendler plant jedoch, es anhand von medizinischen Daten, persönlichen Nachrichten sowie Beiträgen in sozialen Medien zu trainieren. Er hofft, dass ein solches System nicht nur genauer herausfinden kann, was der Patient möchte, sondern auch den Stress und die emotionale Belastung solcher schwierigen Entscheidungen für die Familienmitglieder verringert. Das System soll zusammen mit dem Bioethiker Brian Earp von der University of Oxford und weiteren Kollegen entwickelt werden, sobald die Finanzierung gesichert ist, was in den kommenden Monaten der Fall sein dürfte. Die Einführung wird aber nicht einfach sein. Denn nicht nur Kritiker fragen sich, wie ein solches Tool ethisch vertretbar mit den Daten eines Menschen trainiert werden kann – und ob Entscheidungen über Leben und Tod jemals einer KI anvertraut werden sollten.

Leben oder Sterben

Etwa 34 Prozent der Menschen, die in einem Krankenhaus, Hospiz oder Pflegeheim liegen, gelten aus verschiedenen Gründen als unfähig, Entscheidungen über ihre eigene medizinische Versorgung zu treffen. Sie können z. B. bewusstlos oder scheinbar unfähig sein, zu denken oder zu kommunizieren. Diese Zahl ist bei älteren Menschen noch höher. Eine Studie über Menschen im Alter von 60 Jahren und älter in den USA ergab, dass bis zu 70 Prozent derjenigen, die vor wichtigen Entscheidungen über ihre Pflege standen, nicht in der Lage waren, diese Entscheidungen selbst zu treffen. „Es geht dabei nicht nur um ganz viele Entscheidungen, sondern um ganz viele wirklich wichtige Entscheidungen“, sagt Wendler. „Es ist jene Art von Entscheidungen, die im Grunde darüber bestimmen, ob die Person in naher Zukunft leben oder sterben wird.“

Anzeige
Anzeige

Eine Herzdruckmassage bei einem versagenden Herzen kann das Leben eines Menschen verlängern. Aber die Behandlung kann zu einem gebrochenen Brustbein und gebrochenen Rippen führen, und bis die Person wieder zu sich kommt – wenn überhaupt – können sich bereits erhebliche Hirnschäden abgespielt haben. Die Aufrechterhaltung der Funktion von Herz und Lunge durch eine Maschine kann zwar die Versorgung der anderen Organe mit sauerstoffreichem Blut aufrechterhalten, aber eine Genesung ist nicht garantiert. Zudem kann der Betroffene in der Zwischenzeit zahlreiche Infektionen entwickeln. Und es ist unklar, was die Menschen vollen. Ein Todkranker möchte vielleicht weiterhin die im Krankenhaus verabreichten Medikamente und Verfahren, die ihm noch ein paar Wochen oder Monate geben könnten. Eine andere Person mit dem gleichen Schicksal möchte vielleicht auf diese Maßnahmen verzichten und zu Hause sterben.

Hinzu kommt: Nur etwa einer von drei Erwachsenen in den USA hat eine Patientenverfügung ausgefüllt – ein juristisches Dokument, in dem festgelegt ist, welche Art von Pflege er am Ende seines Lebens erhalten möchte. In Europa sieht es nicht besser aus. Wendler schätzt, dass über 90 Prozent der Entscheidungen am Ende des Lebens von einer anderen Person als dem Patienten getroffen werden. Die Rolle eines Stellvertreters besteht darin, diese Entscheidung auf der Grundlage der Vorstellungen des Patienten zu treffen, wie er behandelt werden möchte. Aber Menschen sind im Allgemeinen nicht gut darin, diese Art von Vorhersagen zu treffen. Studien deuten darauf hin, dass Stellvertreter die Entscheidungen eines Patienten am Lebensende nur in etwa 68 Prozent der Fälle richtig vorhersagen.

Anzeige
Anzeige

Die Entscheidungen selbst können extrem belastend sein, fügt Wendler hinzu. Während einige Stellvertreter ein Gefühl der Befriedigung empfinden, weil sie ihre Angehörigen unterstützt haben, kämpfen andere mit der emotionalen Belastung und können sich noch Monate oder sogar Jahre danach schuldig fühlen. Manche befürchten, dass sie das Leben ihrer Angehörigen zu früh beendet haben. Andere glauben, dass sie das Leiden unnötig in die Länge gezogen haben. „Für viele Menschen ist das wirklich schlimm“, sagt Wendler. Leute beschrieben dies als eines der schlimmsten Erlebnisse in ihrem Leben.

Gute Vorhersagen

Wendler hat sich lange damit beschäftigt, wie man Stellvertreter bei derartigen Entscheidungen unterstützen kann. Vor über zehn Jahren entwickelte er die Idee für eine Software, die die Präferenzen eines Patienten auf der Grundlage von Merkmalen wie Alter, Geschlecht und Versicherungsstatus vorhersagen sollte. Dieses Instrument hätte auf einem Computeralgorithmus basiert, der anhand von Umfrageergebnissen aus der Allgemeinbevölkerung trainiert wurde. Es mag aus heutiger Sicht grob erscheinen, aber diese Merkmale scheinen tatsächlich einen Einfluss darauf zu haben, wie Menschen über medizinische Versorgung denken. Ein Teenager entscheidet sich zum Beispiel eher für eine aggressive Behandlung als ein 90-Jähriger. Und die Forschung legt nahe, dass Vorhersagen, die auf Durchschnittswerten beruhen, sogar genauer sein können als die Vermutungen von Familienmitgliedern.

Im Jahr 2007 erstellten Wendler und seine Kollegen dann auf der Grundlage einer geringen Datenmenge eine „sehr einfache“ vorläufige Version ihrer Software. Dieses einfache System war bei der Vorhersage, welche Art von Pflege die Betroffenen wünschen würden, „mindestens so gut wie die Stellvertreter aus der Reihe der nächsten Angehörigen“, so Wendler.

Anzeige
Anzeige

Jetzt arbeiten die Forscher an einer moderneren Idee. Das neue Instrument, das die Gruppe um Wendler entwickeln will, soll nicht auf groben Merkmalen der Allgemeinbevölkerung beruhen, sondern personalisiert sein. Das Team schlägt vor, mithilfe von Künstlicher Intelligenz und maschinellem Lernen die Behandlungspräferenzen eines Patienten auf der Grundlage von persönlichen Daten wie der Krankengeschichte, E-Mails, persönlichen Nachrichten, dem Surfverhalten im Internet, Beiträgen in sozialen Medien oder sogar Facebook-Likes vorherzusagen. Ergebnis wäre ein „digitaler psychologischer Zwilling“ einer Person – ein Werkzeug, das Ärzte und Familienmitglieder zurate ziehen könnten, um die medizinische Versorgung einer Person zu steuern. Es ist bisher nicht klar, wie dies in der Praxis aussehen würde, aber das Team hofft, das Tool bauen und testen zu können, bevor es weiter verfeinert wird.

Die Forscher nennen ihr Instrument einen „personalisierten Patientenpräferenzprädiktor“, kurz P4. Wenn es so funktioniert, wie sie hoffen, könnte das System theoretisch genauer sein als die vorherige Version des Tools – und genauer als menschliche Stellvertreter, sagt Wendler. Es könnte die aktuellen Gedanken eines Patienten sogar besser widerspiegeln als eine Patientenverfügung, die vielleicht ein Jahrzehnt zuvor unterzeichnet wurde, meint Earp.

Eine bessere Wahl?

Ein Instrument wie P4 könnte auch dazu beitragen, die emotionale Belastung zu mindern, die Stellvertreter empfinden, wenn sie so wichtige Entscheidungen über Leben und Tod ihrer Familienmitglieder treffen müssen. Das führe manchmal sogar zu Symptomen einer posttraumatischen Belastungsstörung, sagt Jennifer Blumenthal-Barby, Medizinethikerin am Baylor College of Medicine in Texas.

Anzeige
Anzeige

„Manche Stellvertreter sind in ihrer Entscheidungsfindung gelähmt.“ Sie würden sich dann für ein Tool entscheiden, das ihnen bei der Entscheidungsfindung helfen kann, sagt Kaplan. In solchen Fällen könnte P4 dazu beitragen, den Stellvertretern eine gewisse Erleichterung zu verschaffen, ohne ihnen unbedingt eine eindeutige Antwort zu geben. Es könnte zum Beispiel vorschlagen, dass eine Person eine bestimmte Haltung zu einer Behandlung „wahrscheinlich“ oder „unwahrscheinlich“ hat, oder einen Prozentsatz ausspucken, der angibt, wie wahrscheinlich es ist, dass die Antwort richtig oder falschliegt.

Kaplan kann sich vorstellen, dass ein Instrument wie das P4 in Fällen wie dem von Sophie hilfreich sein könnte, in denen verschiedene Familienmitglieder unterschiedliche Meinungen zur medizinischen Versorgung einer Person haben. In solchen Fällen könnte das Instrument Familienmitgliedern angeboten werden, um ihnen zu helfen, gemeinsam eine Entscheidung zu treffen. Es könnte auch dazu beitragen, über die Versorgung von Menschen zu entscheiden, die keine familiären Stellvertreter haben. Kaplan, die Ärztin für innere Medizin am Ben Taub Hospital in Houston ist, kennt das aus seiner Einrichtung, die auch Patienten behandelt, die nicht krankenversichert sind. „Viele unserer Patienten sind illegale Migranten, waren inhaftiert oder obdachlos“, sagt sie. „Wir kümmern uns um Patienten, die im Grunde nirgendwo anders versorgt werden können.“

Diese Patienten befinden sich oft in großer Not und im Endstadium ihrer Krankheiten, wenn Kaplan sie sieht. Viele von ihnen sind nicht in der Lage, über ihre Behandlung zu sprechen, und einige haben keine Familienangehörigen, die für sie sprechen könnten. Kaplan sagt, sie könne sich vorstellen, dass ein Instrument wie P4 in solchen Situationen eingesetzt wird, um den Ärzten einen besseren Einblick in die Wünsche des Patienten zu geben. In solchen Fällen könnte es allerdings schwierig sein, das Social-Media-Profil der Person zu finden und überhaupt eine Datengrundlage zu haben. Aber andere Informationen könnten sich als nützlich erweisen. „Wenn sich etwas als Prädiktor präsentiert, würde ich es in das Modell aufnehmen wollen“, sagt Wendler. Das könne vieles sein. „Wenn sich herausstellt, dass die Haarfarbe einer Person oder der Ort, an dem sie die Grundschule besucht hat, oder gar der erste Buchstabe ihres Nachnamens die Wünsche einer Person vorhersagt, dann würde ich sie hinzufügen wollen.“

Anzeige
Anzeige

Eine KI ist kein Mensch

Der grundlegende Ansatz wird durch erste Forschungsergebnisse von Earp und seinen Kollegen gestützt, die mit Umfragen begonnen haben, um herauszufinden, wie Einzelpersonen über die Verwendung von P4 denken würden. Diese Untersuchungen laufen noch, aber die ersten Antworten deuten darauf hin, dass die Menschen bereit wären, das Modell auszuprobieren, wenn keine menschlichen Stellvertreter zur Verfügung stünden. Earp sagt, dass er das auch so sieht. Wenn das P4 und ein Stellvertreter unterschiedliche Aussagentreffen, „würde ich mich wahrscheinlich eher auf den Menschen verlassen, der mich kennt, als auf das Modell“.

Earps Ansichten verraten ein Bauchgefühl, das viele Menschen teilen dürften: dass diese großen Entscheidungen idealerweise von einem Menschen getroffen werden sollten. „Die Frage ist: Wie wollen wir, dass Entscheidungen am Ende des Lebens getroffen werden, und von wem?“, sagt Georg Starke, Forscher an der Eidgenössischen Technischen Hochschule Lausanne. Er befürchtet, dass ein technikorientierter Ansatz dazu führen könnte, dass intime, komplexe und persönliche Entscheidungen zu einer „technischen Frage“ werden.

Bryanna Moore, Ethikerin an der Universität von Rochester, meint, ihre erste Reaktion, als sie von P4 hörte, sei gewesen: „Oh, nein.“ Moore ist eine klinische Ethikerin, die in zwei Krankenhäusern Beratungen für Patienten, Familienangehörige und Krankenhauspersonal anbietet. „Ein großer Teil unserer Arbeit besteht darin, mit Menschen zusammenzusitzen, die vor schrecklichen Entscheidungen stehen. Sie haben keine guten Optionen“, sagt sie. „Was die Stellvertreter wirklich brauchen, ist, dass man sich mit ihnen zusammensetzt und sich ihre Geschichte anhört und sie durch aktives Zuhören und Bestätigung ihrer Rolle unterstützt.“ Sie wisse nicht, wie groß der Bedarf an einer technischen Lösung sei. Moore räumt ein, dass Stellvertreter nicht immer alles richtig machten, wenn sie über die Pflege ihrer Angehörigen entscheiden. „Doch selbst wenn wir die Patienten selbst befragen könnten, würden sich ihre Antworten im Laufe der Zeit wahrscheinlich ändern.“

Anzeige
Anzeige

Sie glaubt nicht, dass ein Instrument wie P4 dieses Problem unbedingt lösen wird. Selbst wenn die Wünsche einer Person in früheren Notizen, Nachrichten und Beiträgen in den sozialen Medien deutlich gemacht wurden, kann es sehr schwierig sein zu wissen, wie man sich in einer medizinischen Situation fühlen wird, bis man selbst betroffen ist. Kaplan erinnert sich an die Behandlung eines 80-jährigen Mannes mit Osteoporose, der unbedingt eine Herzdruckmassage wollte, falls sein Herz aufhören würde zu schlagen. Doch als es so weit war, waren seine Knochen zu dünn und brüchig, um der Behandlung standzuhalten. Kaplan erinnert sich daran, wie seine Knochen „wie ein Zahnstocher“ knackten und sich das Brustbein des Mannes von seinen Rippen löste. „Und dann fragte ich mich: Was machen wir hier eigentlich? Wem helfen wir? Kann das wirklich jemand wollen?“, sagt Kaplan.

Wie läuft das Training ab?

Es gibt noch andere Bedenken. Zunächst einmal könnte eine KI, die auf die Social-Media-Posts einer Person trainiert wurde, am Ende gar nicht so sehr ein „digitaler psychologischer Zwilling“ sein. „Jeder von uns, der in den sozialen Medien präsent ist, weiß, dass was wir in unser Social-Media-Profil schreiben, oft nicht wirklich das widerspiegelt, was wir wirklich glauben, schätzen oder wollen“, sagt Blumenthal-Barby. Und auch wenn wir das täten, ist es schwer zu wissen, wie diese Beiträge unsere Gefühle in Bezug auf die Pflege am Lebensende widerspiegeln. Für viele Menschen ist es schon schwierig genug, diese Diskussionen mit ihren Familienmitgliedern zu führen, ganz zu schweigen von öffentlichen Plattformen.

So wie die Dinge stehen, ist die KI nicht immer in der Lage, Antworten auf menschliche Fragen zu geben. Schon eine kleine Änderung der Eingabeaufforderung an ein KI-Modell kann dazu führen, dass man eine völlig andere Antwort erhält. „Stellen Sie sich vor, das passiert bei einem großen Sprachmodell mit Finetuning, das Ihnen sagen soll, was ein Patient am Ende seines Lebens möchte“, sagt der Schweizer Forscher Starke. „Das ist beängstigend.“

Anzeige
Anzeige

Andererseits ist auch der Mensch fehlbar. Vasiliki Rahimzadeh, Bioethikerin am Baylor College of Medicine, hält P4 für eine gute Idee, vorausgesetzt, es wird gründlich getestet. „Wir sollten an diese Technologien keine höheren Anforderungen stellen als an uns selbst“, sagt sie.

Earp und Wendler sind sich der Herausforderungen bewusst, die vor ihnen liegen. Sie hoffen, dass das von ihnen entwickelte Tool nützliche Informationen erfassen kann, die die Wünsche einer Person widerspiegeln, ohne die Privatsphäre zu verletzen. Es soll ein hilfreicher Leitfaden sein, der von Patienten und ihren Stellvertretern genutzt werden kann, aber kein Standardinstrument, das schwarz-weiß endgültige Antworten gibt.

Sehr belastend für Angehörige

Selbst wenn sie an diesen Fronten erfolgreich sind, können sie möglicherweise nicht kontrollieren, wie ein solches Instrument letztendlich genutzt wird. Nehmen wir zum Beispiel einen Fall wie den von Sophie. Wenn P4 zum Einsatz käme, könnte seine Vorhersage nur dazu dienen, die ohnehin schon unter Druck stehenden Familienbeziehungen weiter zu zerrütten.

Und wenn P4 als der beste Indikator für die Wünsche des Patienten dargestellt wird, besteht die Möglichkeit, dass die Ärzte des Patienten sich rechtlich verpflichtet fühlen, den Ergebnissen des KI-Systems gegenüber den Meinungen der Familienmitglieder zu folgen, sagt Blumenthal-Barby. „Das könnte sehr chaotisch werden und für die Familienangehörigen auch sehr belastend sein“, sagt sie.

„Was mir am meisten Sorgen bereitet, ist die Frage, wer die Kontrolle darüber hat“, sagt Wendler. Er befürchtet, dass Krankenhäuser Instrumente wie P4 missbrauchen könnten, um zum Beispiel kostspielige Behandlungen zu vermeiden. „Es könnte alle möglichen finanziellen Anreize geben.“

Alle von MIT Technology Review befragten Personen sind sich einig, dass die Verwendung eines Instruments wie P4 freiwillig sein sollte und es nicht für jeden interessant sein wird. „Ich denke, es hat das Potenzial, für einige Leute hilfreich zu werden“, sagt Earp. „Es gibt aber auch viele Menschen, die sich mit der Vorstellung unwohl fühlen, dass ein KI-System in irgendeiner Weise in ihre Entscheidungsfindung einbezogen wird, wenn es um so etwas geht.“

Dieser Artikel stammt von Jessica Hamzelou. Sie ist Senior Reporter bei der US-amerikanischen Ausgabe von MIT Technology Review und schreibt über Biomedizin und Biotechnologie.
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige