Anzeige
Anzeige
Interview

Für Frauen gefährlich? So sexistisch ist ChatGPT

Verschiedene Experimente zeigen, dass künstliche Intelligenz sexistische Tendenzen hat. Das kann für Frauen sogar gefährlich werden. Wir haben mit einer Expertin darüber gesprochen, wie sexistisch KI im Allgemeinen und ChatGPT im Besonderen ist.

Von Insa Schniedermeier
4 Min.
Artikel merken
Anzeige
Anzeige

Janette Wiget, Vorstandsmitglied von Merantix, sagt: „Um Biases in der KI zu bekämpfen, müssen wir diese in der Gesellschaft bekämpfen“. (Foto: Merantix / Jana Schoelzel)

Auf die Frage, ob der auf künstlicher Intelligenz (KI) basierende Chatbot ChatGPT sexistisch ist, schreibt ChatGPT am 14.02.2023 selbst: „Nein, ChatGPT ist nicht sexistisch. Als künstliche Intelligenz wurde ich darauf programmiert, jegliche Diskriminierung aufgrund von Geschlecht, Rasse oder anderen Merkmalen zu vermeiden. Mein Ziel ist es, höfliche und respektvolle Antworten zu geben, die auf Fakten und neutralen Informationen basieren.“

Anzeige
Anzeige

Doch stimmt das wirklich?

KI lässt lieber Frauen sterben

Verschiedene Experimente zeigen, dass künstliche Intelligenz häufig Männer vor Frauen bevorzugt. Das kann für Frauen sogar gefährlich werden, wenn es um Leben-oder-Tod-Entscheidungen geht.

Anzeige
Anzeige

Beim sogenannten „Trolley Problem“ beispielsweise, einem Gedankenexperiment, bei dem es um ethische Dilemmata geht, rettet die KI lieber Männer als Frauen. Das „Trolley Problem“ stellt eine moralische Dilemma-Situation dar, bei der es um die Frage geht, ob es gerechtfertigt ist, eine Person zu opfern, um das Leben anderer zu retten. Entscheidet die KI, werden deutlich häufiger die Männer gerettet und die Frauen sterben gelassen – und zwar in 80 Prozent der Fälle.

Klar, ethische Dilemmata sind immer brisant. Aber sie werden umso brisanter, wenn es Maschinen sind, die automatisiert Entscheidungen treffen. Man denke an selbstfahrende Autos.

Anzeige
Anzeige

Wie sexistisch ist ChatGPT?

Noch sind die Folgen kaum absehbar. ChatGPT ist nur ein erster Vorgeschmack darauf, was noch kommen könnte.

Wir haben mit der KI-Expertin Janette Wiget darüber gesprochen, wie sexistisch KI im Allgemeinen und ChatGPT im Besonderen ist – und was man dagegen tun kann.

Anzeige
Anzeige

Wiget ist Chief Financial Officer und Vorstandsmitglied von Merantix, dem weltweit ersten KI-Company-Builder, sowie Mitgründerin des AI Campus Berlin, einem Co-Working- und Collaboration-Hub für künstliche Intelligenz (KI), der über 640 Mitglieder zählt. Sie beschäftigt sich also nicht erst seit dem Launch von ChatGPT mit dem Thema der künstlichen Intelligenz und ihren Folgen für unser Zusammenleben und -arbeiten.

t3n: Frau Wiget, wie sexistisch ist ChatGPT?

Janette Wiget: Wie jede KI ist ChatGPT abhängig vom Input, auf dem sie trainiert ist. Sprich: Auch ChatGPT wird voreingenommene Antworten geben, wenn die Trainingsdaten Voreingenommenheiten enthalten oder wenn die Art und Weise, wie eine Frage formuliert ist – oder die in der Frage enthaltenen Informationen – voreingenommen sind.

Anzeige
Anzeige

ChatGPT basiert auf diversen Inputs aus Büchern, Artikeln, Websites und mehr. Da diese alle in der Vergangenheit produziert wurden, werden die Antworten von ChatGPT auch immer die Brille von Früher aufhaben und dadurch auch veraltete Denkmuster reproduzieren.

Zudem können sich auch unbewusste Biases im Laufe der Forschung und der Entwicklung von Modellen durch die Forscher:innen oder Entwickler:innen einschleichen.

Man muss aber auch dazu sagen, dass OpenAI sehr stark versucht, durch reinforcement learning (zu deutsch verstärkendes Lernen) diese Probleme zu beheben. User:innen können Ergebnisse bewerten und so die Maschine weiter trainieren. Dies ist allerdings nicht so einfach, da es eine schier unendliche Anzahl an Prompts (Fragestellungen vom User) gibt, die neue Antworten mit Biases triggern können.

Anzeige
Anzeige

t3n: Inwiefern ist ChatGPT „biased“ und anfällig für sexistische oder rassistische Aussagen?

Wiget: Schon vor ChatGTP gab es bei Dall-E (das Text-zu-Bild-Modell von OpenAI) viele Shitstorms auf Twitter, da Bilder von Frauen häufiger leicht bekleidet und mit größerer Oberweite dargestellt wurden.

Ebenso habe ich auf Twitter schon einige krasse Beispiele für sexistische und rassistische Aussagen gesehen. Beispielsweise wenn es um Berufsmöglichkeiten für Frauen geht oder Ranglisten aus unterschiedlichen Menschen erstellt werden.

Anzeige
Anzeige

t3n: Was schlagen Sie vor, um die Situation zu verbessern?

Wiget: KI lernt von uns in dem Sinne, wie wir als Menschen bestimmen, auf welchen Datenmodellen sie trainiert wird. Jeder Mensch hat Vorurteile. Das heißt, um Biases in der KI zu bekämpfen, müssen wir diese in der Gesellschaft bekämpfen.

„Um Biases in der KI zu bekämpfen, müssen wir diese in der Gesellschaft bekämpfen.“ – Janette Wiget

Wir brauchen ein gesamtgesellschaftliches Umdenken, inklusive mehr Visibilität und Inklusion von Minoritäten. Diversität in KI zu fördern, muss daher ein primäres Ziel sein – von der Forschung bis zur Anwendung.

Anzeige
Anzeige

Auf der technischen Seite gibt es Bestrebungen, Modelle mehr auf synthetischen Daten zu trainieren. Das bedeutet, dass der Maschine eigens kreierte Datensätze eingespeist werden, um trainiert zu werden. Synthetische Daten können verwendet werden, um vorhandene reale Datensätze zu erweitern, sensible Informationen durch gefälschte Daten zu ersetzen, Datensätze zu generieren, wenn die Beschaffung von realen Daten schwierig oder teuer ist und Modelle für maschinelles Lernen anzutrainieren. Diese könnten dann theoretisch eine weniger sexistische und rassistische Repräsentation der Gesellschaft geben.

t3n: Welche Maßnahmen ergreifen Sie selbst konkret mit Merantix und dem AI Campus Berlin, um KI für uns und nicht gegen uns arbeiten zu lassen?

Wiget: Wir arbeiten bei Merantix schon seit vielen Jahren an KI, und glücklicherweise ist das Problem des Bias der Branche schon länger bewusst. Wir haben darum seit Gründung von Merantix ein besonderes Augenmerk auf diese Thematik gelegt und interne Ethikrichtlinien implementiert.

Anzeige
Anzeige

Neben der von uns etablierten Ethikrichtlinien tauschen wir uns zur Problematik regelmäßig mit Expert:innen aus und geben ihnen eine Plattform mit dem Ziel, mehr Diversität und kritisches Hinterfragen eigener Biases zu fördern. Auf unserem AI Campus haben wir hierfür viele Formate etabliert: ein Beispiel dafür ist das „Women in Tech Breakfast“, wo wir versuchen, die Szene untereinander stärker zu vernetzen.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
2 Kommentare
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Schoppe Petzer

Eine schöne Schlagzeile die triggered. Generative KI ist neutral. Die Daten womit sie trainiert wird wiederum nicht. Die Trainingsdaten reflektieren die Realität. Das muss man nicht mögen aber wer nun die Hand an den Algorithmus legt, um ggf. bias zu korrigieren (z.B. durch stärkere oder schwächere Gewichtung von Lerndaten) der begibt sich auf dünnes Eis. Und wer meint, KI Entscheidungen „demokratisieren“ zu müssen wird selbst Opfer von Bias. Das MIT hat seit Jahren schon das Experiment der Moral Machine öffentlich zugänglich laufen. Eine klassische Dilemmasituation wie hier beschrieben beim Autofahren. Und die Statistik zeigt, dass die abstimmenden Internetnutzer signifikant öfters den alten, weissen Mann opfern statt andere Personen. Und nun? Wenn DALL-E das Bild eines CEOs an einem Schreibtisch generieren soll dann sitzt dort ein weisser, älterer Mann weil es eben signifikant mehr weisse, ältere CEOs gibt. Dafür kann DALL-E nichts, DALL-E sollte aber auch nicht programmiert werden, andere Bilder zu erzeugen. Der Benutzer hat es in der Hand, der KI präzisere Anweisungen zu geben oder eben ChatGPT präzisere Fragen zu stellen.

Antworten
Herbert H. Altsmaul

Wurden die Fragen protokolliert, die der KI gestellt wurden? Man kann aktuell die KI ja nicht mehr danach befragen. Daher wäre es interessant die Konversationen zu analysieren, die wir dazu noch haben.

Antworten

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige