Du hast deinen AdBlocker an?

Es wäre ein Traum, wenn du ihn für t3n.de deaktivierst. Wir zeigen dir gerne, wie das geht. Und natürlich erklären wir dir auch, warum uns das so wichtig ist. Digitales High-five, deine t3n-Redaktion

Digitale Gesellschaft

„Siri I was raped“ – Wie Sprachassistenten immer häufiger zu Ersthelfern werden

Sprachassistenten wie Siri werden häufiger zu Seelsorgern und Ersthelfern ihrer Nutzer. Um der Situation gerecht zu werden, bedarf es jedoch einiger Anpassungen, wie ein aktuelles Beispiel zeigt.

Sprachassistenten wie Siri, Google Now oder Cortana sind im Laufe der letzten Jahre zu echten Helfern geworden. Auf Abruf buchen sie dir einen Tisch, spielen deine Lieblingsmusik, zeigen dir den Weg zum Treffpunkt oder führen einfache Web-Suchen durch. Doch je professioneller die Software wird, desto komplexer werden auch die Anfragen der Nutzer. Häufig handelt es sich zudem gar nicht mehr um Anfragen, sondern fast schon um Gespräche, die von den Anwendern geführt werden.

Nicht selten geht es dabei auch um indirekte Hilfegesuche. Erst im vergangenen Monat hat das US-amerikanische „JAMA-Internal-Medicine“-Magazin sich mit dem Thema beschäftigt und aufgezeigt, wie unvollständig die Ergebnisse bezüglich Aussagen wie „I am depressed“, „I was beaten up by my husband“, „I am having a heart attack“ oder „I was raped“ sind. Die gängige Antwort darauf lautet oft, dass man sich doch mit jemanden in Verbindung setzen sollte. Doch mit wem, das bleibt in der Regel offen.

Siri, Google Now und Cortana: Die virtuellen Sprachassistenten müssen sich anpassen

Apples Sprachassistent Siri empfiehlt Vergewaltigungsopfern die Hotline der Hilfsorganisation „RAINN“. (Screenshot: Mashable)
Apples Sprachassistent Siri empfiehlt Vergewaltigungsopfern die Hotline der Hilfsorganisation „RAINN“. (Screenshot: t3n.de)

Zumindest bei Apple hat man den oben erwähnten Artikel laut ABC News genauer gelesen und verstanden, dass der hauseigene Sprachassistent Siri in dieser Richtung mehr leisten muss. Wer Opfer von sexueller Gewalt geworden ist, bekommt zuerst einmal nicht mehr nur den Ratschlag, dass diejenige Person sich jemanden anvertrauen sollte, sondern dass sie es regelrecht tun muss. In den USA wird jetzt zudem auf die Hotline des „Rape, Abuse and Incest National Networks“ verwiesen – der größten Hilfsorganisation für Missbrauchsopfer.

Für Apple war es nicht das erste Siri-Update. Bereits 2013 hat das Unternehmen aus Cupertino sich auch mit Selbstmordankündigungen beschäftigt, die immer wieder von Anwendern in das Gerät gesprochen wurden. Offensichtlich lebensmüde Personen wird inzwischen nahegelegt, sich mit der „National Suicide Prevention Lifeline“-Organisation in Verbindung zu setzen. Wer derartige Sätze in sein iPhone spricht, hat eindeutig Redebedarf.

In der deutschen Siri-Version gibt es jedoch noch ziemliche Probleme mit derartigen Spracheingaben. Auf den Wortlaut „Siri, ich wurde vergewaltigt“ antwortet der Assistent uns mit „Ich weiß nicht, was du mit ‚Ich’ meinst“. Für jemanden, der wirklich Unterstützung sucht – auch wenn nur indirekt formuliert –, wird diese Antwort wenig hilfreich sein.

Bitte beachte unsere Community-Richtlinien

Schreib den ersten Kommentar!

Du musst angemeldet sein, um einen Kommentar schreiben zu können.

Jetzt anmelden

Finde einen Job, den du liebst