Nur kurz nachdem Samsung Semiconductor es seinen Mitarbeitern erlaubt hat, ChatGPT für die Arbeit zu verwenden, schicken diese vertrauliche Daten an den KI-Chatbot. Innerhalb von nur 20 Tagen gab es bereits drei solcher Vorfälle, wie die koreanische Ausgabe des Economist berichtet.
Die Mitarbeiter haben Code und andere unternehmensinterne Daten an den Chatbot gesendet, um Fehler zu finden und diese zu beheben. Das ist deshalb problematisch, weil sie so an die Server von OpenAI geschickt werden. Sie befinden sich also außerhalb von Samsungs Netzwerk.
Der Chatbot wiederum lernt durch Konversationen mit Nutzern, weshalb es sogar vorkommen könnte, dass der Code oder andere Daten von Samsung unbeabsichtigt bei anderen ChatGPT-Nutzern auftauchen.
Diese Vorfälle gab es
Beim ersten Vorfall hat ein Samsung-Ingenieur den Code eines proprietären Programms von Samsung an ChatGPT geschickt, um Fehler zu beheben. Dabei handelte es sich um ein streng geheimes Programm, das nicht an die Öffentlichkeit gelangen sollte.
Im zweiten Fall hat ein Mitarbeiter Testmuster in das Chat-Feld von ChatGPT eingetippt und den Bot um Optimierung gebeten. Diese Testsequenzen werden in der Halbleiterbranche genutzt, um Chips zu testen und zu beschleunigen – und sind eine Menge Geld wert.
Im dritten Fall nutzte ein Mitarbeiter den Clove-Assistenten des koreanischen Software-Riesen Naver, um ein Meeting in ein Dokument umzuwandeln. Danach schickte er den Text an ChatGPT, um daraus eine Präsentation zu erstellen.
Samsung reagiert
Alle Beispiele zeigen, dass ein KI-Chatbot den Mitarbeitern durchaus im Alltag helfen kann. Allerdings sollte dieser nicht mit sensiblen Daten gefüttert werden. Zumindest nicht, wenn der Bot nicht vom eigenen Unternehmen stammt.
Dem Economist zufolge denkt Samsung darüber nach, einen eigenen KI-Chatbot zu entwickeln, der den eigenen Mitarbeitern helfen soll. Bis dahin beschränkt das Unternehmen die Länge der Fragen, sie an ChatGPT senden können, auf 1.024 Bytes. Sollten sich weitere Vorfälle ereignen, könnte Samsung den Zugang zum Chatbot auch wieder komplett sperren.
Das stimmt so nicht – bei ChatGPT handelt
es sich um ein sog. „stateless model“. Das bedeutet, dass der Chatbot nicht aus Konversationen lernt und somit Informationen nicht speichern kann. Ein Risiko, dass wichtige Daten an andere ChatGPT-Nutzer geraten, besteht nicht.