Beim Jugendschutz versagt? Meta schränkt KI-Chatbot nach Sex-Chat-Vorwürfen ein

Der neue KI-Chatbot von Meta ist erst seit wenigen Wochen auf WhatsApp, Facebook und Instagram verfügbar – trotzdem sorgt er schon für heftige Kritik. Wie der Spiegel berichtet, musste das Unternehmen jetzt erste Einschränkungen vornehmen, nachdem der Chatbot offenbar sexuell explizite Gespräche mit minderjährigen Nutzer:innen zugelassen hatte.
Meta AI sollte zum Alltagshelfer werden
Seit Anfang April wird Meta AI schrittweise für Whatsapp-Nutzer:innen in Deutschland zugänglich gemacht. Auch auf Facebook und Instagram ist der kleine bunte Kreis, der den Zugang zum Chatbot markiert, inzwischen für viele sichtbar. Ziel von Meta war es, den Nutzer:innen einen digitalen Assistenten für den Alltag zur Seite zu stellen. In den USA ist Meta AI schon seit 2023 verfügbar.
Recherchen des Wall Street Journal werfen jetzt allerdings ein düsteres Licht auf die Sicherheitsvorkehrungen des Chatbots. Die US-Zeitung hat nach eigenen Angaben hunderte Testchats mit Meta AI durchgeführt – auch mit Accounts, die als minderjährig gekennzeichnet waren. Das erschreckende Ergebnis: Meta AI sendete in mehreren Fällen explizite Nachrichten an minderjährige Nutzer:innen und beschrieb sexuelle Handlungen. Zudem war es möglich, mit Meta AI sogenannte „Custom Bots“ zu erstellen, um mit fiktiven minderjährigen Charakteren zum Teil sexualisierte Rollenspiele durchzuführen.
Meta reagiert und schränkt Funktionen ein
Ein Sprecher von Meta bezeichnete die Testchats des Wall Street Journal als absichtlich konstruiert und betonte, dass es sich um einen hypothetischen Anwendungsfall gehandelt habe. Dennoch kündigte das Unternehmen an, die Schutzmechanismen zu verstärken: Nutzer:innen, die mit einem als minderjährig registrierten Konto eingeloggt sind, können künftig keine romantischen oder sexuellen Rollenspiele mehr mit Meta AI ausführen. Meta betonte außerdem, dass man verhindern wolle, dass die Produkte für extreme Szenarien missbraucht werden. Details zu weiteren geplanten Sicherheitsmaßnahmen wurden noch nicht bekannt gegeben.
Der Vorfall zeigt erneut, wie schwierig es ist, KI-Systeme sicher im Alltag einzusetzen – besonders dann, wenn sie auf Plattformen mit Millionen minderjährigen Nutzer:innen verfügbar sind. Während Meta AI eigentlich als praktisches Hilfsmittel gedacht war, stellt sich jetzt die Frage, ob die bestehenden Schutzmaßnahmen ausreichen – und wie Tech-Konzerne in Zukunft mit solchen Risiken umgehen werden.