Eine kürzlich entdeckte Sicherheitslücke in ChatGPT sorgt für Bedenken bei Nutzern. Es wurde berichtet, dass der KI-Bot vertrauliche Unterhaltungen anderer Nutzer preisgegeben hat.
Diese enthielten sensible Informationen wie Nutzernamen und Passwörter. Ein Leser von Ars Technica entdeckte die Lücke und informierte das Magazin. Er lieferte auch Screenshots der betroffenen Unterhaltungen.
Zu den durchgesickerten Daten gehören ein unveröffentlichter Forschungsvorschlag, ein PHP-Skript, eine Präsentation sowie die Unterhaltung eines Mitarbeiters eines Pharmakonzerns, der an der Fehlerbehebung einer App arbeitete.
Leser konnte alle Details sehen
Die von Ars Technica veröffentlichten Screenshots sind zensiert, doch der Leser, der die Sicherheitslücke entdeckte, hatte Zugang zu allen Daten. Besonders bedenklich war die Unterhaltung des Mitarbeiters eines Pharmakonzerns, in der sowohl der Nutzername und als auch das Passwort in Klartext ersichtlich war, einschließlich Details zur betreffenden App.
Während andere Unterhaltungen vielleicht keine derart sensiblen Informationen enthielten, waren sie dennoch privat und hätten nicht zugänglich sein dürfen. Dieser Vorfall zeigt, dass man keine sensiblen Informationen an Chatbots wie ChatGPT weitergeben sollte.
So kam es zu dem Leak
Der Nutzer startete eine ganz normale Unterhaltung mit dem KI-Bot, musste dann aber kurz den Computer verlassen. Als er zurückkehrte, stellte er fest, dass in seiner Seitenleiste Unterhaltungen aufgelistet waren, die er selbst nicht geführt hatte.
Diese schienen von verschiedenen Personen zu stammen, was auf eine Verwechslung oder Vermischung der Daten hindeutet. OpenAI, das Unternehmen hinter ChatGPT, ist über diesen Vorfall informiert und hat Untersuchungen eingeleitet, wie ein Sprecher des Unternehmens bestätigte.