Mit KI gegen Dickpics: Bumble stellt Software-Lösung zur freien Verfügung
Bumble hat es sich zur Aufgabe gemacht, seine Community zu schützen und Cyberflashing zu bekämpfen. Eine KI-Funktion namens Private Detector, die erstmals 2019 vorgestellt wurde, identifiziert anstößige Fotos, die über die Bumble-App verschickt werden, und macht sie automatisch unkenntlich. Dieses Tool können jetzt dank der Dating-App auch alle anderen Unternehmen oder Privatpersonen nutzen.
Wie funktioniert der Private Detector?
Bumble zufolge soll die KI eine Treffergenauigkeit von stolzen 98 Prozent haben. Der Private Detector erkennt ein potenzielles Nacktbild, das in einem Bumble-Chat geteilt wird, und zeigt es dem User nur verschwommen an. Die Nutzer:innen haben dann selbst die Wahl, ob sie das Bild angezeigt bekommen möchten oder nicht. Sie können es auch blockieren und den Absender dieser schweinischen Nachricht melden.
Dieses hilfreiche KI-Tool teilt die Dating-App nun auch mit allen anderen: Das Data-Science-Team von Bumble hat ein Whitepaper geschrieben, das die Technologie von Private Detector erklärt, und eine Open-Source-Version davon auf Github zur Verfügung gestellt.
„Auch wenn die Anzahl der Benutzer:innen, die anzügliche Bilder über unsere Apps verschickt, glücklicherweise eine geringfügige Minderheit ist – nur 0,1 Prozent –, ermöglicht uns unser Maßstab, den bestmöglichen Datensatz in der Branche mit anzüglichen und nicht anzüglichen Bildern zu sammeln, der darauf zugeschnitten ist, die bestmöglichen Performances zu erreichen“, schreibt das Unternehmen in einer Pressemitteilung.
Quellcode auf Github.com verfügbar
Zusammen mit dem Whitepaper hat Bumble den Quellcode auf Github.com veröffentlicht, den das Unternehmen verwendet hat, um die Machine Learning Engine zu trainieren, die den Private Detector antreibt. Dazu gibt es ein gebrauchsfertiges Saved Model, das es ermöglicht, das Tool als Standard zu implementieren.
Die Open-Source-Version der KI, die auf Github verfügbar ist, steht für kommerzielle Nutzung, Verteilung und Modifikation zur Verfügung. Damit soll vor allem kleineren Unternehmen, die nicht die Zeit haben, solch eine KI-Technologie selbst zu entwickeln, geholfen werden, ihre User:innen vor unerwünschten Inhalten zu schützen.
Seit der Veröffentlichung von Private Detector arbeitet Bumble auch mit US-Gesetzgebern zusammen, um rechtliche Konsequenzen für das Versenden unerwünschter Nacktfotos durchzusetzen. „Es ist notwendig, dieses Problem über das Produktökosystem von Bumble hinaus anzugehen und eine umfangreichere Diskussion darüber zu führen, wie man gegen das Problem unerwünschter unanständiger Fotos – auch bekannt als Cyberflashing – vorgehen kann, um das Internet zu einem sichereren und freundlicheren Ort für alle zu machen“, heißt es weiter.