ChatGPT im Job: Welche Informationen du nicht mit dem Chatbot teilen solltest
Juraprofessor Rob Nicholls von der australischen University of New South Wales in Sydney warnt vor den Risiken der Verwendung von ChatGPT und anderer KI-Bots in Geschäftsprozessen. Niemals sollten Verwendende ChatGPT mit vertraulichen Informationen füttern, rät er in einem Beitrag auf Tech Xplore.
Verwendung von Informationen in KI-Chatbots schwierig
Wer schon einmal ChatGPT verwendet hat, wird sich über die hohe Genauigkeit und Nützlichkeit der Antworten gefreut haben. Dabei werden gern verschiedene wichtige Aspekte vergessen, auf die Nicholls nun hinweist.
Demnach besteht das wesentliche Risiko darin, dass die KI eine qualifizierte Frage benötigt, um daraus eine qualifizierte Antwort zu erstellen. Die Wahrscheinlichkeit sei daher hoch, dass die qualifizierte Frage schützenswerte oder sogar geheime Informationen enthält, die der KI besser nicht zugänglich gemacht werden sollten.
Und die Inhalte ebendieser Frage würden mit nahezu 100-prozentiger Sicherheit Teil des künftigen Trainingsdatensatzes. Das könne Probleme verschiedenster Art begründen.
Möglich sei etwa die unbeabsichtigte Verletzung des Urheberrechts, wenn entsprechend geschützte Informationen herausgegeben würden. Infrage käme aber ebenso die Verletzung von Geschäftsgeheimnissen oder Verstöße gegen den Datenschutz, etwa die DSGVO.
So sah sich etwa Samsung jüngst mit Problemen konfrontiert, die daraus resultierten, dass Mitarbeitende ChatGPT als Teil des Codeentwicklungsprozesses genutzt hatten. Das sei laut Nicholls durchaus verlockend, denn durch die ChatGPT-Automatisierung könnte eine deutliche Verringerung des Programmieraufwands in Softwareentwicklungsprojekten erreicht werden.
ChatGPT kann sogar automatisch die verwendete Programmiersprache erkennen und vorhandenen Code verbessern. Auf diesem Wege geriet interner Samsung-Code in den Trainingsdatensatz von OpenAI.
GPT4 noch kritischer
Bei Samsung kam noch hinzu, dass sie unter Verwendung der neuen Version GPT4 ChatGPT auch zur Aufzeichnung von Besprechungsnotizen verwendet hatten. GPT4 verfügt nämlich über eine sehr präzise Voice-to-Text-Funktion und stellt deshalb eine einfache Möglichkeit dar, Arbeitsbesprechungen zu transkribieren und sogar ein Protokoll vor dem Ende der Besprechung zu erstellen.
Nicholls schlägt daher vor, die Eingaben in einen KI-Bot vorher genau zu bedenken. Enthält die Eingabeaufforderung unter irgendwelchen Gesichtspunkten schützenswerte Daten, sollte sie so nicht abgeschickt werden. Material, das auch auf andere Weise niemals außerhalb des Unternehmens geteilt werden würde, solle nicht zur Grundlage einer KI-Anfrage werden.
Italiens ChatGPT-Verbot voraussichtlich ohne Bestand
In Italien gab es sogar dir Entscheidung, ChatGPT wegen Datenschutzbedenken zu „verbieten“. Das Hauptargument der italienischen Behörden bestand dabei darin, dass die von ChatGPT gesammelten Daten gegen die europäische Datenschutzverordnung verstoße.
Wie es aussieht, wird sich Italien im Einklang mit anderen europäischen Ländern dazu entschließen, von diesem Ansatz abzurücken. Die einzige Änderung, die voraussichtlich erforderlich sein wird, ist eine Altersüberprüfung (über 18 Jahre) der Nutzenden.
Seit 1. März nutzt OpenAI keine Prompts, die über die API gegeben werden, zum Trainieren des Models. Die Prompts von ChatGPT werden allerdings verwendet.
Insofern kann man nicht pauschal sagen, dass man keine sensitiven Daten mit der AI teilen sollte, sondern man muss genau hinsehen, auf welchem Weg und unter welchen Geschäftsbedingungen man die Modelle nutzt.
Frage: wie sicher ist diese Auskunft?