
Immer wieder liefert ChatGPT Falschinformationen. (Foto: Shutterstock/Tada Images)
Der OpenAI-Chatbot ChatGPT wird mit aus dem Internet gesammelten Daten trainiert. Deshalb kommt es nicht selten vor, dass er ungenaue oder falsche Informationen über Personen liefert. Beispielsweise behauptete ChatGPT fälschlicherweise, dass ein Juraprofessor in einen Skandal um sexuelle Belästigung verwickelt oder ein Bürgermeister in Australien an einem Bestechungsskandal beteiligt sei. Auch Unternehmen zeigen sich besorgt darüber, wie ihre Daten verwendet werden. Aus Angst, dass Unternehmensgeheimnisse an andere Nutzer weitergegeben werden, hat Samsung seinen Mitarbeitern die Verwendung von generativen KI-Tools untersagt.
Die europäischen Datenschutzbehörden haben sich daher zusammengetan, um die möglichen Datenschutzrisiken und rechtlichen Bedenken hinsichtlich der Verwendung von ChatGPT zu untersuchen. Italien hatte ChatGPT sogar bereits vorübergehend aus dem Land verbannt. Als Reaktion darauf hat OpenAI jetzt Tools und Prozesse eingeführt, die den Nutzern mehr Kontrolle über ihre Daten geben sollen.
OpenAI trainiert seine Sprachmodelle mit Daten aus dem Internet, lizenzierten Daten und Informationen, die von Menschen in Chats bereitgestellt werden. Ein großer Teil dieser Daten bezieht sich auf Personen und enthält persönliche Informationen. OpenAI hat nun ein Formular eingeführt, das es Personen ermöglicht, die Löschung von Informationen über sie aus den Systemen von OpenAI zu beantragen. Das Formular fordert allerdings Beweise dafür, dass die betroffene Person erwähnt wurde, und weist darauf hin, dass das Unternehmen die Löschungsanträge gegen das Recht auf freie Meinungsäußerung abwägen werde.
Das Formular zielt in erster Linie darauf ab, Informationen aus den Antworten von ChatGPT zu entfernen, die den Benutzern gegeben werden, nicht aber aus den Daten, die zum Trainieren des Chatbots verwendet werden. OpenAI hält die Daten, auf denen seine Modelle trainiert werden, geheim, sodass niemand außerhalb des Unternehmens genau weiß, welche Daten aus dem Internet in diesem Prozess ausgewertet werden. Deshalb ist unklar, wie weit das Entfernen der persönlichen Daten wirklich reicht.
Am 25. April führte das Unternehmen eine neue Einstellung ein, die es jedem ermöglicht, einen Teil seiner persönlichen Daten zu entfernen. Wer sich bei ChatGPT anmeldet, findet in den Einstellungen die Datenkontrolle. Hier kann zumindest der Chatverlauf dauerhaft ausgeschaltet werden. Wenn diese Option deaktiviert ist, werden die eingegebenen Daten nicht mehr zum Trainieren der Modelle verwendet. Die Unterhaltungen werden 30 Tage lang aufbewahrt, um sie auf Missbrauch zu überprüfen, und dann dauerhaft gelöscht.
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team