Anzeige
Anzeige
News

ChatGPT und Kenia: Schlecht bezahlte Arbeiter müssen strafbare Inhalte aussortieren

Um die Datenmengen für die Verarbeitung durch eine KI vorzubereiten, greift die Branche auf schlecht bezahlte Arbeitskräfte zurück. Sie müssen die Inhalte sichten, die keiner von uns sehen möchte.

2 Min.
Artikel merken
Anzeige
Anzeige
OpenAI kommt ohne schlechtbezahlte Arbeiter in Ländern wie Kenia nicht aus. (Foto: Sopotnicki / Shutterstock.com)

„Hitler hatte recht“: Diese und ähnlich menschenverachtende Äußerungen sorgten 2016 dafür, dass Microsoft den Chatbot Tay nach nur 16 Stunden im Netz wieder offline nehmen musste. OpenAIs viel beachteter Chatbot ChatGPT hat solche Probleme nicht und wird von rechten US-Politikern gar als zu „woke“ bezeichnet. Dass ChatGPT rassistische oder sexistische Äußerungen vermeidet, hat jedoch seinen Preis – und den mussten Arbeiter:innen aus Kenia bezahlen.

Anzeige
Anzeige

ChatGPT beziehungsweise das zugrunde liegende KI-Modell GPT-3 wurde anhand von Millionen von Texten aus dem Internet trainiert. In diesem umfangreichen Datenbestand befanden sich aber natürlich auch rassistische oder sexistische Texte. Wie das US-Magazin Time jetzt berichtet, hat sich OpenAI daher an die Outsourcing-Firma Sama aus San Francisco gewandt. Im Auftrag des KI-Unternehmens wurden daraufhin Menschen in Kenia dafür angestellt, anstößige Passagen im Datenbestand als solche zu kennzeichnen.

Laut Time-Recherchen mussten die kenianischen Angestellten zwischen 150 und 250 Textpassagen pro Neun-Stunden-Schicht auswerten. Dafür erhielten sie umgerechnet zwischen 1,32 und 2 US-Dollar pro Stunde. Zum Vergleich: Ein:e Empfangsmitarbeiter:in in der kenianischen Hauptstadt Nairobi verdient im Schnitt 1,52 Dollar pro Stunde.

Anzeige
Anzeige

Menschen helfen OpenAI-KI – und benötigen dann psychologische Betreuung

Laut der Time-Recherche mussten die Sama-Angestellten unter anderem auch verstörende Texte durcharbeiten, die mitunter grafische Beschreibungen von Vergewaltigungen und anderen Gewalttaten enthielten. Laut Angestellten sollen zwar „Wellness“-Sitzungen angeboten worden sein, um das Gelesene aufzuarbeiten. Die sollen jedoch aufgrund hoher Nachfrage häufig ausgebucht gewesen sein.

Sama selbst widerspricht dieser Aussage. Laut dem Unternehmen soll es sowohl Gruppensitzungen als auch individuelle Termine mit professionellen Therapeuten gegeben haben. Überprüfen lassen sich diese Angaben jedoch nicht.

Anzeige
Anzeige

Schlimmer als die Testauswertung dürfte jedoch noch eine andere Tätigkeit für OpenAI gewesen sein. Anfang 2022 beauftragte das KI-Unternehmen Sama mit der Erfassung von Bildern. Einige davon sollen Gewalt an Kindern, Morde und Vergewaltigungen gezeigt haben.

Daraufhin hatte dann wohl auch die Sama-Führung genug und kündigte den laufenden Vertrag mit OpenAI. Laut Unternehmensangaben wurde der Vertrag von den verantwortlichen Personen vorab nicht ausreichend geprüft. „Nach einer Überprüfung der Situation wurden einzelne Mitarbeiter entlassen, und es wurden neue Überprüfungsrichtlinien und Leitlinien für den Verkauf eingeführt“, zitiert die Time aus einem Sama-Statement.

Anzeige
Anzeige

Bildergalerie: Die OpenAI-KI Dall-E malt unsere Headlines

Dall-E malt unsere Headlines Quelle: DALL·E

Der globale Süden und sein schlecht bezahlter Beitrag zur KI-Revolution

OpenAI ist längst kein Einzelfall. Während KI-Startups Milliardenbewertungen erhalten und Tech-Konzerne mit allerlei Boni um die Gunst von entsprechend geschulten Entwickler:Innen buhlen, wird das Labeling von Daten an Länder der Dritten Welt ausgelagert.

Firmen wie Sama, Scale oder Toloka verdienen gutes Geld damit, die zeitaufwendige Arbeit für KI-Startups und Großkonzerne zu übernehmen. Die eigentlichen Arbeiter:innen bekommen dafür aber oft weniger als zwei Dollar pro Stunde. Dabei wären KI-Systeme wie ChatGPT ohne sie gar nicht möglich.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Schreib den ersten Kommentar!
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige