Gefälschte ChatGPT-Erweiterung stiehlt Facebook-Cookies
Die Beliebtheit von ChatGPT wussten auch Betrüger:innen für sich zu nutzen. So kursierte im Chrome-Store eine Erweiterung, die sich den gleichen Funktionen und einem ähnlichen Namen bediente, jedoch vorrangig ein Ziel hatte: Facebook-Cookies stehlen.
Schon seit Februar 2023 war das Fake-Add-on mit dem Namen Chat GPT for Google im Umlauf, nun wurde es aus dem Store entfernt. Allerdings hatten bis dahin schon über 9.000 Nutzer:innen den Account-kompromittierenden Bot installiert.
Das Problem: Das Add-on Chat GPT wies nicht nur ein Leerzeichen, sondern auch gleich ein paar Code-Zeilen mehr auf als das Original. So basierte die gefälschte Erweiterung auf demselben Open-Source-Projekt, jedoch mit dem Zusatz prekärer Code-Zeilen, die den Auftrag erteilten, Cookies zu stehlen.
„Das Ergebnis ist eine Erweiterung, die aus Sicht der Nutzer:innen genauso aussieht und funktioniert wie ChatGPT“, so Sicherheitsforscher:innen von Guardio Labs, die das FakeGPT entdeckt haben. Weil diese FakeGPT-Variante direkt nach der Installation nur eine bestimmte böswillige Aktion ausführte, „gab es keinen Grund für einen Verdacht.“
So verwenden Fake-Add-ons Facebook-Daten
Wie die Sicherheitsforscher:innen in dem Blogbeitrag erklären, sind die Möglichkeiten für Betrüger:innen, gestohlene Facebook-Daten zu nutzen, schier unbegrenzt. „Sie können das Profil als Bot für Kommentare, Likes oder Werbeaktivitäten nutzen, Seiten oder Werbekonten erstellen und dafür sowohl Ihren Ruf als auch Ihre Identität verwenden.“
Facebook-Sitzungen könnten schnell übernommen und grundlegende Anmeldedaten geändert werden. „Ab diesem Zeitpunkt verlieren Sie die Kontrolle über Ihr Profil, ohne dass Sie es wiedererlangen können.“
Nutzen die Betrüger:innen die Daten nicht direkt selbst, besteht natürlich die Möglichkeit, sie an Dritte zu verkaufen.
Der Missbrauch der Marke ChatGPT wird weiter zunehmen
Die Expert:innen von Guardio Labs sind sich sicher: So wie die Popularität von ChatGPT zunimmt, wird auch der Missbrauch der Marke weiter wachsen. Erst kürzlich hatte der Sicherheitsdienstleister Bitdefender Labs vor einer neuen Phishing-Aktion gewarnt, die eine nachgemachte ChatGPT-Plattform nutzt, um Geld und Benutzerdaten zu erbeuten.
„Große Dienste, die von Facebook, Google und anderen großen Konzernen angeboten werden, werden ständig angegriffen“, heißt es in dem Blogbeitrag von Guardio Labs.
Um Sicherheitslücken, „die Nutzer:innen in Massen treffen“ zu überwinden, bräuchte es vor allem eines: das Bewusstsein das es sie gibt.