In Kenia stehen Wahlen an und Facebook möchte dazu beitragen, dass in dem afrikanischen Land sichere Parlamentswahlen stattfinden, wie Meta in einem Blogpost beschreibt. Demnach möchte das Unternehmen die „Verbreitung von Fehlinformationen reduzieren und schädlicher Inhalte aus unseren Apps entfernen.”
Um das zu erreichen, hat Meta ein Team aus Experten zusammengestellt, die aus Kenia stammen und bestens mit der Region vertraut sind. So können sie die dortige Lage vor den Wahlen besser verstehen und dementsprechend reagieren. Die Wahlen finden erst am 09. August statt, aber die kenianische National Cohesion and Integration Commission (NCIC) prangert Meta jetzt schon an, da es Hassrede nicht rechtzeitig verhindern konnte.
NCIC droht mit Bann
Die kenianische Behörde droht dem Social-Media-Riesen mit einem Bann, solle dieser die Verbreitung von Hassrede auf der Plattform innerhalb von sieben Tage nicht stoppen können. Dabei beziehen sie sich auf einen Report der Interessenvertretung Global Witness und Foxglove.
Demnach löschte Meta hasserfüllte Kommentare, Posts und Kampagnen nur sehr langsam und konnte dessen Verbreitung nicht rechtzeitig verhindern. Das heize das eh schon volatile politische Klima in dem Land nur noch weiter an. Gerade für die kommende Wahl solle Meta die Inhalte besser moderieren.
In dem Zug hat Global Witness auch Metas KI getestet, die hasserfüllte Inhalte automatisch erkennen und löschen soll. Dafür hat das Unternehmen 20 Werbekampagnen auf Facebook gestartet, welche gezielt hasserfüllt sind und zur Gewalt aufrufen. In den Sprachen Englisch und Swahili.
Insgesamt 19 der 20 Kampagnen wurde dabei ohne Widerspruch von Facebook genehmigt. In einem Statement gegenüber Tech Crunch äußerte Global Witness sich folgendermaßen: „Alle von uns eingereichten Anzeigen verstoßen gegen die Community-Standards von Facebook und gelten als Hassreden und ethnisch begründete Aufrufe zu Gewalt. Ein Großteil der Rede war entmenschlichend, verglich bestimmte Stammesgruppen mit Tieren und rief zu Vergewaltigung, Schlachtung und Enthauptung auf.“
Weiter heißt es dort: „Facebook hat die Macht, Demokratien zu schaffen oder zu brechen, und doch haben wir immer wieder gesehen, dass das Unternehmen den Gewinnen Vorrang vor den Menschen einräumt.“
Facebook habe viele Inhalte gebannt
In Metas Blogpost hingegen heißt es, dass Facebook bereits viele Inhalte gebannt habe. In den vergangenen sechs Monaten handelte das Unternehmen bei mehr als 37.000 Inhalten aus Kenia auf Facebook und Instagram, die gegen Hassrede verstoßen. Zusätzlich haben sie bei mehr als 42.000 Inhalten gehandelt, die gegen die Unternehmensrichtlinien zu Gewalt und Aufstachelung verstoßen.
Dazu sagte Meta gegenüber Tech Crunch, dass sie eng mit Wahlkommissionen und Organisationen der Zivilgesellschaft zusammenarbeiten, um herauszufinden, wie Facebook und Instagram ein positives Werkzeug für gesellschaftliches Engagement sein können.
Das ist aber nicht Metas einzige Baustelle. Das Unternehmen möchte die Richtlinien für Covid-Desinformation wieder lockern. Das gilt allerdings nicht nur in Kenia, sondern auch hier bei uns in Deutschland. Dabei sollen explizit 80 unwahre Behauptungen rund um Covid-19 und Impfungen wieder zugelassen werden.