
ChatGPT: Keine verlässliche Suchmaschine mit sensiblen Daten, die zu Trainingszwecken genutzt werden. Die KI-Taskforce prüft nun den Chatbot. (Foto: Tada Images/Shutterstock)
Die Taskforce KI der Datenschutzkonferenz will sich genauer mit ChatGPT beschäftigen. Zu klären seien Fragen zur Datensicherheit, der Einhaltung der Datenschutzgrundverordnung, kurz DSGVO, und zur Verarbeitung der personenbezogenen Daten. Das berichtet Table Media.
Prüfung von ChatGPT
Nutzer:innen würden bei ChatGPT sehr intime Fragen stellen und sensible Informationen mit dem Chatbot teilen. Das werde dadurch begünstigt, dass „ChatGPT sprachlich so auftritt wie ein angenehmer menschlicher Zeitgenosse“, sagte Marit Hansen, Schleswig-Holsteins Datenschutzbeauftragte und die Vorsitzende der Taskforce KI, gegenüber Table Media. Insgesamt gebe es aber mehr Risiken als nur den Datenschutz – daher seien auch Politik und Gesetzgebung gefordert.
Bisher habe es keine formellen Beschwerden gegen den Chatbot gegeben. Auf der Datenschutzkonferenz am Montag allerdings wurde das Thema aufgeworfen, weil es bei Aufsichtsbehörden Anfragen zu ChatGPT gab.
Potenziell falsche Antworten und Suchmaschinenersatz
Hansen verweist zudem darauf, dass sich Menschen auf die Antworten verlassen – diese sind aber nicht immer korrekt. Bei sensiblen Themen, wie beispielsweise Krankheiten, kann das fatal sein. Die Antworten könnten auch Einfluss üben und manipulativ wirken, die Fragen können „gefärbt beantwortet“ werden. „ChatGPT ist keine verlässliche Suchmaschine!“
Dazu kommt: Die Datengrundlage von ChatGPT basiert auf Inhalten, die in der Vergangenheit produziert worden sind. Daher „werden die Antworten von ChatGPT auch immer die Brille von früher aufhaben und dadurch auch veraltete Denkmuster reproduzieren“, sagte KI-Expertin Janette Wiget im Interview mit t3n zu Sexismus bei ChatGPT.
Bing hat ChatGPT bereits implementiert – seit dem 18. März ist die Chatbot-Suche ohne Warteliste für alle verfügbar.
ChatGPT in Italien gesperrt
Italien hat ChatGPT am 31. März 2023 gesperrt. OpenAI habe gegen die geltenden EU-Datenschutzregelungen verstoßen. Auslöser dafür war das Datenleck, das ermöglichte, dass Nutzer:innen die Titel von Chatverläufen anderer Nutzer:innen sehen konnten. Waren beide Nutzer:innen zur gleichen Zeit aktiv, war es sogar möglich, dass die erste Anfrage an den Chatbot sichtbar war.
Dazu kommt das Sammeln und Speichern von Daten, mit denen ChatGPT weiter trainiert wird. Dafür gebe es keine Rechtsgrundlage, so die italienische Datenschutzbehörde.