ChatGPT: Darum durften Microsoft-Mitarbeiter das KI-Tool zwischenzeitlich nicht nutzen

Am Donnerstag durften Mitarbeitende für eine gewisse Zeit ChatGPT nicht benutzen. Dabei ist Microsoft einer der großen Investoren des Unternehmens hinter dem KI-Chatbot, OpenAI. CNBC berichtet von einem Update in Microsofts Intranet, dass „aufgrund von Sicherheits- und Datenschutzbedenken“ eine Reihe von KI-Tools für Mitarbeitende nicht mehr zur Verfügung stehen. Über Unternehmensgeräte hat das Softwareunternehmen den Zugang zur ChatGPT-Website sogar gesperrt.
Nur ein Versehen
Neben ChatGPT sollte zwischenzeitlich auch die Design-Software Canva verboten werden. Inzwischen hat das Unternehmen die Sperrung wieder aufgehoben. CNBC gegenüber erklärte der Windows-Hersteller, dass es sich bei der Sperrung des KI-Chatbots um einen Fehler handle.
Trotzdem rechtfertigte Microsoft das widersprüchliche Handeln. Zwar investiere das Unternehmen in OpenAI, die ChatGPT-Webseite sei aber trotzdem ein externer Dienst eines Drittanbieters. „Das bedeutet, dass man bei der Nutzung aufgrund von Datenschutz- und Sicherheitsrisiken Vorsicht walten lassen muss. Dies gilt auch für alle anderen externen KI-Dienste wie Midjourney oder Replika“, so Windows.
Zurückzuführen ist die Sperrung von ChatGPT laut Microsoft auf einen Fehler, der mit einem Test von Systemen für Large-Language-Models in Verbindung stand. Large-Language-Models (kurz LLM), zu denen auch ChatGPT zählt, sind leistungsstarke KI-Modelle, die darauf trainiert sind, menschenähnlichen Text zu generieren und verstehen. Mithilfe von neuronalen Netzwerken können die Modelle Texte übersetzen, vervollständigen und Fragen beantworten. Microsoft habe Endpunktkontrollsysteme für LLM getestet. Dabei seien diese Kontrollsysteme versehentlich für die gesamte Belegschaft aktiviert worden.
Schon im Januar sorgte Microsoft mit ChatGPT für Schlagzeilen. Damals warnte das Unternehmen seine Mitarbeitenden davor, „sensible Daten“ mit ChatGPT zu teilen.