Nicht verlässlich und mit Risiken: KI-Taskforce der Länder prüft ChatGPT

ChatGPT: Keine verlässliche Suchmaschine mit sensiblen Daten, die zu Trainingszwecken genutzt werden. Die KI-Taskforce prüft nun den Chatbot. (Foto: Tada Images/Shutterstock)
Die Taskforce KI der Datenschutzkonferenz will sich genauer mit ChatGPT beschäftigen. Zu klären seien Fragen zur Datensicherheit, der Einhaltung der Datenschutzgrundverordnung, kurz DSGVO, und zur Verarbeitung der personenbezogenen Daten. Das berichtet Table Media.
Nutzer:innen würden bei ChatGPT sehr intime Fragen stellen und sensible Informationen mit dem Chatbot teilen. Das werde dadurch begünstigt, dass „ChatGPT sprachlich so auftritt wie ein angenehmer menschlicher Zeitgenosse“, sagte Marit Hansen, Schleswig-Holsteins Datenschutzbeauftragte und die Vorsitzende der Taskforce KI, gegenüber Table Media. Insgesamt gebe es aber mehr Risiken als nur den Datenschutz – daher seien auch Politik und Gesetzgebung gefordert.
Bisher habe es keine formellen Beschwerden gegen den Chatbot gegeben. Auf der Datenschutzkonferenz am Montag allerdings wurde das Thema aufgeworfen, weil es bei Aufsichtsbehörden Anfragen zu ChatGPT gab.
Hansen verweist zudem darauf, dass sich Menschen auf die Antworten verlassen – diese sind aber nicht immer korrekt. Bei sensiblen Themen, wie beispielsweise Krankheiten, kann das fatal sein. Die Antworten könnten auch Einfluss üben und manipulativ wirken, die Fragen können „gefärbt beantwortet“ werden. „ChatGPT ist keine verlässliche Suchmaschine!“
Dazu kommt: Die Datengrundlage von ChatGPT basiert auf Inhalten, die in der Vergangenheit produziert worden sind. Daher „werden die Antworten von ChatGPT auch immer die Brille von früher aufhaben und dadurch auch veraltete Denkmuster reproduzieren“, sagte KI-Expertin Janette Wiget im Interview mit t3n zu Sexismus bei ChatGPT.
Bing hat ChatGPT bereits implementiert – seit dem 18. März ist die Chatbot-Suche ohne Warteliste für alle verfügbar.
Italien hat ChatGPT am 31. März 2023 gesperrt. OpenAI habe gegen die geltenden EU-Datenschutzregelungen verstoßen. Auslöser dafür war das Datenleck, das ermöglichte, dass Nutzer:innen die Titel von Chatverläufen anderer Nutzer:innen sehen konnten. Waren beide Nutzer:innen zur gleichen Zeit aktiv, war es sogar möglich, dass die erste Anfrage an den Chatbot sichtbar war.
Dazu kommt das Sammeln und Speichern von Daten, mit denen ChatGPT weiter trainiert wird. Dafür gebe es keine Rechtsgrundlage, so die italienische Datenschutzbehörde.
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team