ChatGPT und Kenia: Schlecht bezahlte Arbeiter müssen strafbare Inhalte aussortieren
„Hitler hatte recht“: Diese und ähnlich menschenverachtende Äußerungen sorgten 2016 dafür, dass Microsoft den Chatbot Tay nach nur 16 Stunden im Netz wieder offline nehmen musste. OpenAIs viel beachteter Chatbot ChatGPT hat solche Probleme nicht und wird von rechten US-Politikern gar als zu „woke“ bezeichnet. Dass ChatGPT rassistische oder sexistische Äußerungen vermeidet, hat jedoch seinen Preis – und den mussten Arbeiter:innen aus Kenia bezahlen.
ChatGPT beziehungsweise das zugrunde liegende KI-Modell GPT-3 wurde anhand von Millionen von Texten aus dem Internet trainiert. In diesem umfangreichen Datenbestand befanden sich aber natürlich auch rassistische oder sexistische Texte. Wie das US-Magazin Time jetzt berichtet, hat sich OpenAI daher an die Outsourcing-Firma Sama aus San Francisco gewandt. Im Auftrag des KI-Unternehmens wurden daraufhin Menschen in Kenia dafür angestellt, anstößige Passagen im Datenbestand als solche zu kennzeichnen.
Laut Time-Recherchen mussten die kenianischen Angestellten zwischen 150 und 250 Textpassagen pro Neun-Stunden-Schicht auswerten. Dafür erhielten sie umgerechnet zwischen 1,32 und 2 US-Dollar pro Stunde. Zum Vergleich: Ein:e Empfangsmitarbeiter:in in der kenianischen Hauptstadt Nairobi verdient im Schnitt 1,52 Dollar pro Stunde.
Menschen helfen OpenAI-KI – und benötigen dann psychologische Betreuung
Laut der Time-Recherche mussten die Sama-Angestellten unter anderem auch verstörende Texte durcharbeiten, die mitunter grafische Beschreibungen von Vergewaltigungen und anderen Gewalttaten enthielten. Laut Angestellten sollen zwar „Wellness“-Sitzungen angeboten worden sein, um das Gelesene aufzuarbeiten. Die sollen jedoch aufgrund hoher Nachfrage häufig ausgebucht gewesen sein.
Sama selbst widerspricht dieser Aussage. Laut dem Unternehmen soll es sowohl Gruppensitzungen als auch individuelle Termine mit professionellen Therapeuten gegeben haben. Überprüfen lassen sich diese Angaben jedoch nicht.
Schlimmer als die Testauswertung dürfte jedoch noch eine andere Tätigkeit für OpenAI gewesen sein. Anfang 2022 beauftragte das KI-Unternehmen Sama mit der Erfassung von Bildern. Einige davon sollen Gewalt an Kindern, Morde und Vergewaltigungen gezeigt haben.
Daraufhin hatte dann wohl auch die Sama-Führung genug und kündigte den laufenden Vertrag mit OpenAI. Laut Unternehmensangaben wurde der Vertrag von den verantwortlichen Personen vorab nicht ausreichend geprüft. „Nach einer Überprüfung der Situation wurden einzelne Mitarbeiter entlassen, und es wurden neue Überprüfungsrichtlinien und Leitlinien für den Verkauf eingeführt“, zitiert die Time aus einem Sama-Statement.
Bildergalerie: Die OpenAI-KI Dall-E malt unsere Headlines
Der globale Süden und sein schlecht bezahlter Beitrag zur KI-Revolution
OpenAI ist längst kein Einzelfall. Während KI-Startups Milliardenbewertungen erhalten und Tech-Konzerne mit allerlei Boni um die Gunst von entsprechend geschulten Entwickler:Innen buhlen, wird das Labeling von Daten an Länder der Dritten Welt ausgelagert.
Firmen wie Sama, Scale oder Toloka verdienen gutes Geld damit, die zeitaufwendige Arbeit für KI-Startups und Großkonzerne zu übernehmen. Die eigentlichen Arbeiter:innen bekommen dafür aber oft weniger als zwei Dollar pro Stunde. Dabei wären KI-Systeme wie ChatGPT ohne sie gar nicht möglich.