Bitcoin-Investments und Menopause-Fragen: Warum Metas KI-App zum Datenschutz-Albtraum wird

Schon Ende April 2025 hat Meta eine Neuerung angekündigt. Künftig kommt die KI des Unternehmens nicht nur in Facebook, Instagram und Whatsapp zum Einsatz, sondern auch mit größerem Fokus in der eigenständigen Meta-AI-App. Meta verspricht dabei einen persönlichen Assistenten, der jederzeit eure Präferenzen kennt, sich an Kontext erinnert und auf euch personalisiert ist. Neben diesen Versprechen gibt es auch einen sogenannten Discover-Feed in der Meta-AI-App, über den andere User:innen ihre Konversationen und KI-Prompts teilen können.
Meta AI: Nutzer teilen private Konversationen mit der App
Vorab sei gesagt, dass ihr die Meta-AI-App zwar hierzulande auch installieren könnt, aber es zwei Haken gibt. Zunächst würdet ihr eine Meta-AI-Brille benötigen, um die App überhaupt nutzen zu können. Ferner wurde der besagte Feed hierzulande (noch) nicht durch Meta freigeschaltet. Wie The Verge berichtet, müsst ihr aber nicht neidisch auf andere Regionen und User:innen schauen. Denn aktuell herrscht in Metas AI-App wohl vor allem Chaos.
Denn im Feed finden sich nicht nur Prompts von User:innen, die Bilder von sich in Cartoon-Charaktere verwandeln oder die den berühmten Strawberry-Test mit der KI durchführen. Gelegentlich scheinen Meta-AI-User:innen auch private Konversationen mit der KI zu teilen. So etwa ein User, der mit der künstlichen Intelligenz darüber debattiert, ob in seiner finanziellen Situation die Investition in Bitcoin ratsam ist. Zudem gibt es User:innen, die ihren Tag mit der KI besprechen oder nach Kontonummern ihrer hinterlegten Bezahlmethode bei Meta fragen.
Auf Thread gibt es ebenfalls Beispiele von Meta-AI-Feeds, die wohl nicht öffentlich zugänglich sein sollten. So hat etwa eine 60-jährige Frau die KI nach den Auswirkungen von Folsäure auf den weiblichen Körper nach der Menopause befragt. Ein anderer User teilte mit der KI, dass sein Arbeitgeber ihn entlassen hat, weil angeblich kein Geld mehr für seine Position vorhanden wäre. Kurz danach entdeckte er eine Stellenausschreibung für seinen Job. Er fragt die KI, wie er sich gegen dieses „schäbige Verhalten“ zur Wehr setzen kann.
Wieder andere User kreieren freizügige Bilder von Prominenten oder posten detaillierte Prompt-Versuche, mit denen sie KI-Bilder ihres Traumpartners generieren wollten. In einem Fall entdeckte The Verge 13 Prompt-Versuche eines Users, um seine Vorstellungen möglichst genau von der KI umsetzen zu lassen.
Wie The Verge betont, ist es seltsam, dass die Beiträge versehentlich im öffentlichen Feed landen. Denn um sie zu posten, müssen User:innen aktiv auf den Teilen-Button tippen und werden dann noch von einem Pop-up benachrichtigt, dass sie ihre Beiträge öffentlich sichtbar machen. Erst nach einer weiteren Bestätigung landen die Prompts und Bilder im Meta-AI-Feed. Offenbar ist es einigen User:innen egal oder sie wissen nicht genau, wer genau auf die Beiträge zugreifen kann.
Sicher ist, dass diese Beiträge enorme Risiken bergen. Es gibt eine Reihe von Dingen, die ihr Chatbots niemals mitteilen solltet. Mit diesen öffentlich zugänglichen Informationen können Cyberkriminelle gezielte Phishing-Angriffe starten oder bekommen schon so genug Details über das Leben der Personen, um Schaden anzurichten. Davon abgesehen, können sich die User:innen auf Meta AI mit ihren Beiträgen auch selbst Schäden zufügen, wenn sie besonders private Konversationen öffentlich teilen.