Versehen oder Sicherheitsproblem? Meta AI teilt privaten Kontakt statt Servicenummer per Whatsapp

(Bild: Shutterstock/Hengki Tj)
Nicht nur in Deutschland gibt es Probleme mit dem öffentlichen Nah- und Fernverkehr. In England wartete Barry Smethurst am Bahnhof von Saddleworth auf einen Zug nach Manchester, der allerdings auf sich warten ließ. Um der Sache auf den Grund zu gehen, zückte er sein Smartphone und befragte Meta AI. Die KI-Lösung ist seit dem Frühjahr 2025 unter anderem in Großbritannien und in Deutschland in Whatsapp verfügbar und soll im Stil von ChatGPT bei der Texterstellung, aber auch bei der Beantwortung von Fragen helfen. Smethurst wollte sich das zunutze machen und erfragte über die KI-Assistenz die Nummer für den Kundenservice des zuständigen Eisenbahnunternehmens TransPennine Express – er bekam jedoch einen ganz anderen Kontakt. Das berichtet The Guardian.
Meta AI weicht unangenehmen Fragen aus
Wie sich herausstellte, gab Meta AI die Privatnummer von James Gray heraus, einem Whatsapp-Nutzer aus Oxfordshire. Damit nicht genug. Als Smethurst Nachfragen zur Mobilnummer stellte, wich die KI-Assistenz zunächst aus und versuchte, den Fokus auf die korrekte Nummer von TransPennine Express zu lenken. Im weiteren Verlauf des Chats gab Meta AI zunächst an, die Nummer sei ausgedacht, erklärte dann, sie stamme aus einer Datenbank, und sorgte schlussendlich für Aufklärung: „Ich habe eine Ziffernfolge generiert, die dem Format einer britischen Handynummer entsprach, aber sie basierte nicht auf realen Daten über Kontakte.“
Smethurst fand diesen Kontakt mit der KI „erschreckend“, wie er gegenüber dem Guardian erklärt. „Wenn sie sich die Nummer ausgedacht haben, ist das eher akzeptabel, aber die Tatsache, dass sie eine falsche Nummer aus einer Datenbank nehmen, auf die sie Zugriff haben, ist besonders beunruhigend.“ James Gray zeigt sich ebenfalls skeptisch gegenüber Meta AI und fragt sich unter anderem, ob das Unternehmen dann auch dazu in der Lage sei, seine Bankdaten zu generieren.
Immerhin scheint es sich hier um einen Einzelfall zu handeln. Gray habe laut Bericht keine Anrufe von Leuten bekommen, die eigentlich das Eisenbahnunternehmen erreichen wollten.
So erklärt Meta den Whatsapp-Fauxpas
Aber wie kam es zu dem Vorfall? Ein Meta-Spracharbeiter erklärte gegenüber dem Guardian, eine schnelle Online-Suche habe ergeben, dass die Telefonnummer öffentlich einsehbar sei und die ersten fünf Ziffern habe wie die des TransPennine Express-Kundendienstes.
Es ist nicht das erste Mal, dass ein KI-Bot private Daten mit einem falschen Kontext verknüpft. Als der Norweger Arve Hjalmar Holmen ChatGPT nach sich selbst befragte, bezeichnete die KI ihn fälschlicherweise als verurteilten Mörder seiner Kinder. Ein Fall, der zu einer Datenschutzbeschwerde gegen OpenAI führte. Ein Unternehmenssprecher erklärte dazu gegenüber dem Guardian, dass die Behandlung von Halluzinationen über alle Modelle hinweg sei ein laufender Forschungsbereich. Man weise Nutzer:innen nicht nur darauf hin, dass ChatGPT Fehler machen könne, sondern arbeite auch daran, die Genauigkeit und Zuverlässigkeit der Modelle zu verbessern.
In Whatsapp gibt es ebenfalls einen Hinweistext zu Meta AI. „Nachrichten werden von einer KI generiert“, steht da. Und: „Einige können falsch oder unangemessen sein.“ Im Fall von Smethurst und Gray war die Nummer eine falsche Information. Und gleichzeitig unangemessen.