12 Prozent effektiver: Facebook setzt beim Erkennen von Hass und Fake-News auf neue KI
Die von Whistleblowerin Frances Haugen geleakten internen Facebook-Dokumente haben verschiedene Missstände aufgezeigt. Dazu gehört, dass es dem kürzlich in Meta umgetauften Konzern nicht gelingen will, Hassrede und Fake-News unter Kontrolle zu bringen – insbesondere, wenn es um eher seltener gesprochene Sprachen geht. So soll der Genozid an den Rohingya in Myanmar auch via Facebook vorangetrieben worden sein, befeuert von Algorithmen. Geflüchtete haben daher jetzt eine 150-Milliarden-US-Dollar-Klage eingereicht. Aber Facebook hat nachjustiert, was die Moderations-KI angeht.
KI: Few-Shot-Learner lernen schneller
Sein neues KI-basiertes Moderationssystem bezeichnet Facebook/Meta als Few-Shot-Learner. Das sogenannte Few-Shot-Learning ist ein Teilgebiet des Maschinenlernens, bei dem das Volumen der Trainingsdaten für die KI deutlich geringer ist als im Normalfall. Der Vorteil: Eine solche KI kann bestimmte Aufgaben schneller lernen und umsetzen. Statt Tausender Beispiele werden bei dem Few-Shot-Learner laut Facebook nur eine Handvoll davon benötigt, um auf neue Formen von Hassrede, Fake-News oder andere unerwünschte Inhalte zu reagieren. Die übrigen Voraussetzungen erlangt die KI über „vortrainierte“ Inhalte.
Facebook zufolge soll die neue Moderations-KI um zwölf Prozent effektiver sein als ähnliche Modelle, wie Engadget schreibt. Neue Moderationsregeln sollen sich sogar innerhalb von nur sechs Wochen integrieren lassen. Vorher nahm das bis zu sechs Monate in Anspruch. Die KI soll schon seit einiger Zeit im Einsatz sein. So sei eine neue Regel eingeführt worden, die es Facebook-Nutzer:innen erschwert, Postings zu teilen, die andere von einer Coronaimpfung abhalten könnten. Zudem habe die KI bei Hassrede im Zeitraum von Mitte 2020 bis Oktober dieses Jahres deutliche Rückgänge erreichen können. Genauere Angaben dazu machte Facebook aber nicht, wie es bei Wired heißt.
Herausforderungen für Facebook-KI
Alle Probleme mit Hassrede und Fake-News auf der Plattform wird aber auch die neue KI nicht lösen können. So erklärte Facebook zuletzt, dass seine automatisierten Systeme Hassrede und terroristische Inhalte in über 50 Sprachen erkennen könnten. Facebook setzt seine KI allerdings für über 100 Sprachen ein. Zudem gibt es Kritik an KI wegen möglicher Diskriminierung. Facebook erklärte allerdings, dass man Mittel und Wege gefunden habe, die Systeme auf Genauigkeit und mögliche Vorurteile zu kontrollieren.