Du hast deinen AdBlocker an?

Es wäre ein Traum, wenn du ihn für t3n.de deaktivierst. Wir zeigen dir gerne, wie das geht. Und natürlich erklären wir dir auch, warum uns das so wichtig ist. Digitales High-five, deine t3n-Redaktion

News

Google reagiert auf den Sexismus der Translate-App

Stereotype Geschlechterrollen mal umgedreht. (Foto: Shutterstock)

Nachdem eine Studie nachweisen konnte, dass Google Translate sexistische Stereotype verstärkt, will der Suchkonzern jetzt nachbessern. Zukünftig soll der Übersetzungsdienst in einigen Fällen die männliche und die weibliche Form eines Begriffes anzeigen.

Ein im November 2018 von Wissenschaftlern der brasilianischen Universität von Rio Grande do Sul veröffentlichtes Paper zeigte, dass Google Translate ein Problem hat. Werden Berufsbezeichnungen aus geschlechtsneutralen Sprachen ins Englische übersetzt, wählte der Google-Dienst in aller Regel die Geschlechtspronomen, die verbreiteten Stereotypen entsprechen. Sprich: Für Google Translate ist es „eine Krankenschwester“ und nicht „ein Krankenpfleger“ – aber „ein Firmenchef“ und nicht „eine Firmenchefin“.

Jetzt hat sich Google des Problems angenommen und eine Anpassung der Übersetzungslösung angekündigt. Bei Übersetzungen aus dem Französischen, dem Italienischen, dem Portugiesischen und dem Spanischen ins Englische sollen zukünftig die weibliche und die männliche Form des jeweiligen Begriffes angezeigt werden. Gleiches gilt für Übersetzungen aus dem Türkischen ins Englische.

Google Translate soll zukünftig ein weniger stereotypes Geschlechterverständnis an den Tag legen. (Grafik: Google)
Google Translate soll zukünftig ein weniger stereotypes Geschlechterverständnis an den Tag legen. (Grafik: Google)

Zu einem späteren Zeitpunkt soll das Problem auch in weiteren Sprachen behoben werden. Darüber hinaus will Google auch geschlechtsspezifische Vorurteile aus der Autovervollständigung tilgen. Außerdem habe sich der Konzern bereits Gedanken gemacht, wie mit non-binären Geschlechtern umgegangen werden soll. Die Lösung sei jedoch noch nicht bereit für den Einsatz.

Algorithmische Voreingenommenheit: Die Mär des vorurteilsfreien Computers

Algorithmische Voreingenommenheit betrifft viele Systeme, bei denen maschinelles Lernen zum Einsatz kommt. Während die eigentlichen Algorithmen natürlich keinerlei eigene Abneigungen hegen können, basiert ihr Verständnis von der Welt letztlich auf den Daten, mit denen sie gefüttert werden. Die wiederum stammen aus einer Welt, in der Vorurteile sehr wohl verbreitet sind. Immerhin beschäftigen sich KI-Forscher zunehmend mit dem Problem und versuchen, Lösungen dafür zu finden. Auch Google-Chef Sundar Pichai ist des Problems bewusst. Die im Sommer 2018 für sein Unternehmen aufgestellten KI-Richtlinien besagen unter anderem, dass künstliche Intelligenz keine bestehenden Vorurteile verstärken dürfe. Die Anpassung von Google Translate ist die logische Konsequenz dieser Selbstverpflichtung.

Ebenfalls interessant:

Bitte beachte unsere Community-Richtlinien

Schreib den ersten Kommentar!

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.