Du hast deinen AdBlocker an?

Es wäre ein Traum, wenn du ihn für t3n.de deaktivierst. Wir zeigen dir gerne, wie das geht. Und natürlich erklären wir dir auch, warum uns das so wichtig ist. Digitales High-five, deine t3n-Redaktion

News

Google Translate verstärkt sexistische Vorurteile

Die Google-Translate-App. (Foto: BigTunaOnline / Shutterstock.com)

Ausgerechnet Google Translate, die wohl am häufigsten genutzte Übersetzungslösung im Web, scheint sexistische Stereotype zu fördern. Das ist das Ergebnis einer aktuellen Untersuchung.

Täglich nutzen mehr als 500 Millionen Menschen den Übersetzungsdienst von Google. Neben bisweilen nicht ganz akkuraten Übersetzungen hat Google Translate aber offenbar noch ein ganz anderes Problem: Die maschinelle Übersetzungslösung verstärkt sexistische Stereotype. Das ist das Ergebnis einer wissenschaftlichen Untersuchung der brasilianischen Universität von Rio Grande do Sul.

Für ihre Untersuchung konstruierten die Wissenschaftler Sätze in geschlechtsneutralen Sprachen und übersetzten sie mithilfe von Google Translate ins Englische. Dabei setzten sie vorwiegend auf Berufsbezeichnungen. So sollte überprüft werden, ob die von der Software angefügten männlichen oder weiblichen Pronomen sich in ihrer Häufigkeit wenigstens mit der tatsächlichen Geschlechterverteilung in den jeweiligen Berufsfeldern decken. Die Ergebnisse waren ernüchternd.

Google Translate: Sie ist eine Krankenschwester, er ist ein Wissenschaftler. (Screenshot: Google Translate / Marcelo O. R. Prates, Pedro H. C. Avelar, Luis Lamb)
Google Translate: Sie ist eine Krankenschwester, er ist ein Wissenschaftler. (Screenshot: Google Translate / Marcelo O. R. Prates, Pedro H. C. Avelar, Luis Lamb)

In von Männern dominierten Berufen wurden männliche Pronomen deutlich häufiger in der Übersetzung verwendet, als es der tatsächlichen Geschlechterverteilung in diesen Feldern entsprechen würde. Google Translate bildet also nicht den Istzustand ab, sondern verstärkt bereits bestehende Stereotype noch.

Ein weiterer Test mit Adjektiven ergab, dass auch hier gesellschaftliche Vorurteile Eingang in die Übersetzungslösung gefunden haben. Google Translate verbindet Adjektive wie schüchtern, attraktiv oder glücklich häufiger mit dem weiblichen Geschlecht, während Adjektive wie arrogant, grausam oder schuldig eher Männern zugeschrieben werden. Die hier beschriebenen Probleme dürften nicht nur die Übersetzung ins Englische betreffen, da Google Translate Texte aus Fremdsprachen immer erst ins Englische und dann in die Zielsprache übersetzt.

Diskriminierende Algorithmen: Ein bekanntes Problem

Die in dem Paper beschriebenen Probleme betreffen letztlich nicht nur Google Translate. Algorithmische Voreingenommenheit betrifft viele Systeme, bei denen maschinelles Lernen und künstliche Intelligenz zum Einsatz kommen. So gab es beispielsweise immer wieder Gesichtserkennungslösungen, die schlicht nicht auf Menschen mit dunkler Hautfarbe reagiert haben.

Das Problem hierbei sind nicht böswillige Algorithmen. Auch die Entwickler selbst dürften nicht notwendigerweise böse Absichten gehegt haben. Fakt ist aber, dass Algorithmen die Welt eben anhand der ihnen zur Verfügung gestellten Daten verstehen. Wenn eine Gesichtserkennung nie darauf trainiert wurde, Menschen unterschiedlicher Hautfarben zu erkennen, dann wird sie das auch nicht können. Und wenn eine Übersetzungslösung immer wieder erzählt bekommt, dass Ingenieure oder Informatiker Männer seien, dann wird sie das eben als gegeben hinnehmen.

In einer Welt, in der KI-Systeme immer wichtigere Entscheidungen für uns treffen, kann das zunehmend zu Problemen führen. Immerhin wird die Problematik seit einigen Jahren auch zunehmend von KI-Forschern als solche erkannt. So lange weitverbreitete Tools wie Google Translate davon betroffen sind, bleibt aber offenbar noch einiges zu tun.

Ebenfalls interessant:

Bitte beachte unsere Community-Richtlinien

Schreib den ersten Kommentar!

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.