Anzeige
Anzeige
News

Whisper im Krankenhaus: KI-Tool macht aus harmlosen Patientengesprächen Gewaltfantasien

KI-Modelle haben noch immer mit Halluzinationen zu kämpfen. Welche Folgen das haben kann, zeigt das Beispiel einer KI-Transkriptionslösung für Krankenhäuser. Die erfand teilweise erschreckende Sätze.

Von Kay Nordenbrock
2 Min.
Artikel merken
Anzeige
Anzeige

Symbolbild von einem Patientengespräch. (Foto: Halfpoint / Shutterstock)

Auch in manchen Krankenhäusern kommen mittlerweile KI-basierte Transkriptionstools zum Einsatz, die Gespräche zwischen Ärzten und Patienten aufzeichnen sollen. Die Grundlage dafür ist oft das quelloffene KI-Modell Whisper von OpenAI. Das wird auch von Unternehmen wie Nabla eingesetzt, die es Krankenhäusern als fertige Transkriptionslösung anbieten.

Anzeige
Anzeige

Mit dem Tool von Nabla wurden bereits rund sieben Millionen medizinische Unterhaltungen aufgenommen und es wird in rund 30.000 Kliniken verwendet, schreibt ABC News. Das Problem dabei ist allerdings, dass das Tool nicht immer wie gewünscht transkribiert, sondern manchmal auch Sätze erfindet, die so nie gesagt wurden.

Laut einer Studie von Wissenschaftlern der Cornell University enthalten rund ein Prozent der Transkriptionen mitunter gewaltbezogene, unsinnige oder anderweitig unangemessene Sätze, die so nie gesagt wurden.

Anzeige
Anzeige

Manchmal unisinnig, manchmal aber auch gefährlich

Dabei erfindet die KI teils neue Medikamente wie „hyperaktivierte Antibiotika“ oder schreibt Sätze wie „Danke fürs Zuschauen!“ in das Transkript, die aus einem Youtube-Video stammen könnten. Mögliche Erklärung: Laut einem Bericht hat OpenAI Datensätze von Youtube in als Trainingsdaten verwendet.

Einige Beispiele für solche Halluzinationen hat die Forscherin Allison Koenecke von der Cornell University auf X in einem Thread geteilt.

Anzeige
Anzeige

Die Forscher vermuten, dass diese Halluzinationen entstehen, wenn es eine Pause im Gespräch gibt oder die KI Hintergrundgeräusche erkennt, die sie nicht einordnen kann. Das Forscherteam fand heraus, dass in Aufnahmen, die von Menschen mit Sprachstörungen stammen, besonders viele Halluzinationen auftreten, was darauf hindeutet, dass die KI Schwierigkeiten hat, Stille oder undeutliche Sprache zu interpretieren.

So reagiert OpenAI

OpenAI hat sich derweil gegenüber The Verge mit einem Statement zu Wort gemeldet. Dort sagt Pressesprecherin Taya Christianson: „Wir nehmen das Problem ernst und arbeiten kontinuierlich an Verbesserungen, einschließlich der Reduzierung von Halluzinationen.”

Anzeige
Anzeige

Weiter habe OpenAI für die Nutzung von Whisper auf der API-Plattform Richtlinien festgelegt, die den Einsatz in entscheidungskritischen Kontexten untersagen. In der sogenannten Model Card für die Open-Source-Version spricht das Unternehmen zudem Empfehlungen gegen die Nutzung in risikoreichen Bereichen – wie einem Krankenhaus – aus.

Sora: Das sind die besten Clips von OpenAIs Video-KI Quelle:
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare (1)

Community-Richtlinien

Angelo Do.

Ich hab schon viel mit Whisper gearbeitet und Halluzinationen kommen insbesondere immer dann vor, wenn kein Gesprochenes im Audioschnipsel vorkommt.

Das heißt, man darf nicht alles an Whisper weitergeben, sondern man muss vorselektieren. Offenbar ist das hier im Tool von Nabla entweder nicht passiert, oder sollte nochmal überarbeitet werden. Die Schwächen von Whisper sind lange bekannt.

Grundsätzlich gilt bei jeder KI-Lösung: Die Ergebnisse müssen ohnehin durch eine fachkundige Person geprüft werden. KI ist nicht autonom, sondern dient der Assistenz. Zumindest da, wo es auf Richtigkeit ankommt.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige