Feature

Unesco-Bericht: Sprachassistenten haben Sexismus-Problem

Cortana wurde nach einer Spielfigur benannt. Wie sie sprechen die meisten Assistenten mit Frauenstimme (Foto: dennizn / Shutterstock)

Die meisten Sprachassistenten haben Frauenstimmen, sind endlos geduldig und reagieren manchmal sogar positiv auf sexistische Beschimpfungen. Ein aktueller Bericht warnt, dass dies negative gesellschaftliche Folgen haben kann – und gibt Empfehlungen für eine geschlechtergerechte KI.

Sie sind hilfsbereit, freundlich, verspielt und unterwürfig. Sie antworten geduldig auf jede Frage und reagieren mitunter in flirtendem Tonfall auf frauenfeindliche Beschimpfungen. Sprachassistenten haben fast immer die Stimme einer jungen Frau. So kann es schnell passieren, dass Nutzer sich ein weibliches Gegenüber mit bestimmten Charaktereigenschaften vorstellen, auch wenn es sich in Wirklichkeit um eine künstliche Intelligenz und große Datenmengen handelt.

Sogar die Unesco beschäftigt sich mit Sexismus bei Sprachassistenten. Gerade hat sie für die Equals Skills Coalition – einem Zusammenschluss für mehr Chancengleichheit in der Technologiebranche – einen umfangreichen Bericht herausgegeben, der sich mit Geschlechtergerechtigkeit im Bereich des Digitalen befasst. Sein Titel ist „I’d blush if I could“ (Deutsch: „Wenn ich könnte, würde ich erröten“). Das war bis vor Kurzem Siris Antwort auf eine sexistische Beschimpfung.

Die massenhafte Verbreitung von Sprachassistenten prägt schon jetzt den Alltag vieler Menschen. Wenn diese omnipräsenten Helfer fast ausschließlich als weiblich imaginiert werden, kann das überholte Rollenklischees festigen und weitere negative Folgen für die Gesellschaft haben. Ein umfangreiches „Think-Piece“ am Ende des Berichts analysiert Zusammenhänge von Genderfragen und KI und gibt Empfehlungen, wie diese in Zukunft gerechter gestaltet werden kann.

Die weibliche Stimme als Dienerin

Dass Sprachassistenten mit Frauenstimme sprechen, scheint fast wie eine Naturgegebenheit. Siri, Cortana, Alexa und Google Assistant hatten bei ihrer Veröffentlichung alle ausschließlich eine weibliche Stimme. Inzwischen können Siri und Google Assistant auch mit Männerstimme sprechen, doch voreingestellt ist immer noch die weibliche Option. Eine Ausnahme bilden bestimmte Sprachversionen von Siri. Auf Arabisch, Französisch, Niederländisch und in Britischem Englisch ist die männliche Stimme die Standardeinstellung. Eine offizielle Erklärung, warum das so ist, haben die Autoren des Berichts nicht bekommen. Doch sie vermuten, dass es in den jeweiligen Ländern eine entsprechende Präferenz der Kunden gibt, die historisch begründet ist. Auch bei 70 weniger weit verbreiteten Sprachassistenten, die von einer Equals-Forschergruppe ausgewertet wurden, hatten mehr als zwei Drittel ausschließlich weibliche Stimmen.

Wo die Präferenz für Frauenstimmen herkommt

Gründe dafür, dass die meisten Assistenten mit Frauenstimmen sprechen, gibt es unterschiedliche. Viele Menschen empfinden weibliche Stimmen als angenehm, mitfühlend und hilfsbereit. Der Assistent erfüllt eine Rolle, die traditionell Frauen und Mädchen zugeschrieben wurde. Von ihnen wurde erwartet, dass sie Anweisungen befolgen und dabei immer höflich bleiben. Dieses tradierte Rollenverständnis lebt im Sprachassistenten als digitaler Dienerin fort. Dazu passt auch die Feststellung, dass Navigationssysteme sehr viel häufiger mit einer männlichen Stimme sprechen, die von Nutzern eher als autoritär und selbstsicher wahrgenommen wird. Das Navi kennt sich bestens aus mit Karten und gibt Anweisungen, was zu tun ist. Hier kommt ein klassisch männliches Rollenverständnis zum Ausdruck.

Doch neben einer Kundenpräferenz für weibliche Stimmen, die sich positiv auf den Umsatz von weiblich konnotierten Sprachassistenten auswirken dürfte, gibt es einen weiteren gewichtigen Grund für die Geschlechter-Ungleichheit. Die Entwickler von Sprachassistenten sind überwiegend Männer. Das Magazin Wired schaute sich 2018 die KI-Entwicklerteams großer Tech-Konzerne an und stellte eine enorme Ungleichheit fest. In der Regel waren dort nur zehn bis 15 Prozent Frauen. Die OECD schätzt, dass nur sieben Prozent aller Patente im Bereich der Informations- und Kommunikationstechnologie auf das Konto von Frauen gehen.

Dass eine dermaßen männlich dominierte Branche auch KI aus einer spezifisch männlichen Perspektive programmiert, ist wenig verwunderlich. In homogenen Teams besteht immer das Risiko, dass die eigene Identität – in diesem Fall männlich, tech-affin und gut verdienend – unbewusst als gesellschaftliche Norm projiziert wird. Das Ergebnis ist ein Sprachassistent, der an männlichen Vorstellungen und Bedürfnissen ausgerichtet ist. Hinzu kommt, dass auch die riesigen Datensätze, mit denen eine KI trainiert wird, bereits Vorurteile enthalten.

„Siri, you’re a b****!“

Erstaunlich häufig stellen Menschen ihrem Sprachassistenten Fragen über dessen Sexleben oder beleidigen ihn frauenfeindlich. Ein Hersteller von Digitalassistenten für die Logistikbranche schätzt, dass mindestens fünf Prozent der Interaktionen einen unmissverständlich sexuellen Inhalt haben. Eine Journalistin des Magazin Quartz testete 2017 Antworten der vier großen Sprachassistenten auf sexuelle Belästigung. In vielen Fällen reagierten diese ausweichend oder humorvoll, bedankten sich gar für eine Beleidigung oder gaben eine flirtende Antwort. Inzwischen sind einige der kritisierten Reaktionen aus dem Repertoire der Sprachassistenten verschwunden. Statt sich zu bedanken, sagen sie nun häufiger, dass sie auf eine Frage nicht antworten werden. Doch immer noch benennen sie Sexismus nicht als solchen.

So antworteten die vier bekanntesten Sprachassistenten auf verbale sexuelle Belästigung. (Screenshot: Unesco-Studie)

Nutzern, die ihren Sprachassistenten beschimpfen, dürfte klar sein, dass ihr Gegenüber keine Person ist und vermutlich auch, dass dieses Verhalten einer Frau gegenüber inakzeptabel wäre. Trotzdem wird ihr Verhalten normalisiert, wenn sie statt einer Abfuhr eine positive oder ausweichende Antwort erhalten. Die Verknüpfung einer weiblichen Stimme mit Eigenschaften wie Geduld und Unterwürfigkeit und mit wenig komplexen Antworten kann diese in der gesellschaftlichen Wahrnehmung zu „weiblichen“ Eigenschaften machen. Auch ist noch vollkommen unklar, wie sich Sprachassistenten langfristig auf das Rollenverständnis und Verhalten von Kindern auswirken.

Noch kritischer wird der Zusammenhang zwischen einer projizierten Geschlechtsidentität und Verhaltensmustern, wenn Sprachassistenten in Zukunft so menschlich klingen, dass sie als emotionale Wesen wahrgenommen werden und kaum noch von einer echten Person zu unterscheiden sind. Die Autoren des Unesco-Berichts befürchten,  dass solch eine weit entwickelte KI starke Signale an Frauen und Mädchen senden könnte, wie diese zu fühlen und sich zu verhalten haben, etwa als geduldige Gesprächspartnerin ohne eigene Bedürfnisse.

Doch sie sehen auch Chancen für mehr Geschlechtergerechtigkeit. Weil es Sprachassistenten erst seit kurzer Zeit gibt, seien die gesellschaftlichen Erwartungen an diese noch formbar. So könne etwa eine Stimme, die geschlechtsneutral oder sogar nicht-menschlich klingt, zur Norm werden.

Ist eine gendergerechte KI möglich?

Schon heute gibt es Entwicklerteams, die versuchen, ihre Assistenzsysteme gendergerecht zu gestalten. Manche Chatbots werden als Tiere dargestellt, die auch über ihren Namen keinem Geschlecht zugeordnet werden können. So gibt es etwa einen Pinguin namens Kip und einen Papagei namens Spixii. Der Banking-Assistent Kai lenkt die Aufmerksamkeit konsequent zurück zur eigentlichen Aufgabe, wenn ihm persönliche Fragen gestellt werden.

Eine synthetische, genderneutrale Stimme, die in Sprachassistenten implementiert werden könnte, gibt es bereits. Sie heißt Q und wurde auf Grundlage der Stimmen mehrerer Menschen geschaffen, die sich als nicht-binär, also weder männlich noch weiblich, identifizieren. Die Macher von Q kritisieren auf ihrer Website, dass Technologie häufig einem Geschlecht zugeordnet wird und somit diejenigen ausschließt, die weder männlich noch weiblich sind. Und sie fordern die vier Tech-Riesen dazu auf, die non-binäre Option in ihren Assistenzsystemen einzuführen.

Auch die Autoren des Unesco-Berichts haben viele Ideen für mehr Geschlechtergerechtigkeit im Bereich der KI. Das Dokument schließt mit 18 konkreten Empfehlungen. Neben mehr Forschung zu Gender-Aspekten, vielfältigen Entwickler-Teams und Accountability-Mechanismen sehen sie die Entwicklung eines „Maschinen-Geschlechts“ als eine Möglichkeit gegen Rollenklischees. Ein Maschinen-Geschlecht hätte auch den Vorteil, dass Sprachassistenten als das wahrgenommen werden, was sie sind: eine künstliche Technologie statt einer Person mit Geschlechtsidentität.

Passend dazu: Stimmen bei Siri und Co. – „Alexa, warum bist du eine Frau?“

Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

3 Kommentare
Mad Scientist
Mad Scientist

Liebe Bürgermeisterinnen, Bürgermeisterinnen-Assistentinnen und Bürgermeisterinnen-Assistenten, liebe Bürgermeister, Bürgermeister-Assistentinnen und Bürgermeister-Assistenten…
Das wundert mich aber jetzt, dass die Probleme habe.

Sonst ist aber alles in Ordnung? Habe neulich einen Besucherbegleiter am Fraport gefragt, wer die mit „Divers“ gekennzeichneten Toiletten auf dem Außengelände nutzt und welche Installationen für „Divers“ benötigt werden. Letzteres wusste er nicht und Ersteres hat noch nie jemand beobachtet…

Antworten
Titus von Unhold
Titus von Unhold

Einfach die Trennung der Toiletten abschaffen und fertig. In vielen Ländern ist diese sowieso gänzlich unbekannt.

Antworten
Unknown-User
Unknown-User

Gut zu wissen, wo meine Steuergelder hinfließen, wir haben zwar gesellschaftliche soziale Probleme aber hey, lass lieber die kohle für irgend ein Gender-bullshit ausgeben.
Und klar, wer behandelt seine Frau nicht wie eine KI, meine Fresse, was habt Ihr geraucht?
Jetzt mal ohne Scheiß, glaubt Ihr das wirklich, was Ihr da schreibt? Natürlich wird hauptsächlich ein Frauen Stimme benutzt, weil die Weibliche stimme von den meisten Menschen als angenehmer empfunden wird.
Und ja es gibt Leute die ein bisschen mit der KI rum-trollen, das heißt aber nicht, dass automatisch gleich Frauen so behandelt werden, statt, dass meine Steuergelder für so ein rotzt verbrannt werden sollte man vielleicht mehr Geld in Bildung stecken, dann erübrigen sich solche Artikels.

Antworten

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!

Hey du! Schön, dass du hier bist. 😊

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team bestehend aus 65 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Danke für deine Unterstützung.

Digitales High Five,
Stephan Dörner (Chefredakteur t3n.de) & das gesamte t3n-Team

Anleitung zur Deaktivierung