Darf ich ChatGPT meine Arbeitsmails schreiben lassen?
Es klingt verlockend: Statt selbst lange an einer beruflichen E-Mail zu feilen, lässt man diese einfach von einem KI-Chatbot schreiben. Doch Moment: Darf man das als Arbeitnehmerin oder Arbeitnehmer überhaupt?
Es ist kompliziert
Eines vorweg: Die Sachlage ist kompliziert. Als einfache Richtlinie kann aber gelten: „Mit Zustimmung des Arbeitgebers ist alles möglich“, sagt der Fachanwalt für Arbeitsrecht Peter Meyer. Ohne dessen Einverständnis solltet ihr hingegen keine E-Mails, die ein KI-Chatbot für euch verfasst hat, versenden.
Meyer verweist hier auf Paragraf 613 des Bürgerlichen Gesetzbuches (BGB). Demnach müsse der Arbeitnehmer seine Dienstleistungen höchstpersönlich erfüllen. „Und KI ist etwas anderes als eine Fräsmaschine oder das Korrekturprogramm“, so Meyer. „Das ist etwas, was die ganze Arbeit sozusagen übernimmt.“ Man könne also „sehr darüber streiten, ob man dann noch höchstpersönlich die Arbeiten erbringt.“
Und es gibt noch einen weiteren Aspekt. „Das ist die Fürsorgepflicht des Arbeitnehmers“, sagt Fachanwalt Meyer. Sie ergibt sich aus Paragraf 241 Absatz 2 BGB. Demnach muss der Arbeitnehmer auf die Interessen des Arbeitgebers Rücksicht nehmen. Im Fall der Nutzung von KI könnten das Meyer zufolge „zum Beispiel Interessen des Urheberrechts sein oder des Datenschutzes“ sein.
Das spiele vor allem dann eine Rolle, wenn Beschäftigte nicht nur kurze E-Mails, etwa zur Terminbestätigung, sondern umfassende Ausarbeitungen für Kunden von einer KI erstellen lassen. „Das muss immer mit Zustimmung des Vorgesetzten erfolgen, wenn Sie solche Leistungen von ChatGPT übernehmen lassen wollen“, sagt Meyer.
Bei Nutzung trotz Verbots droht Abmahnung
Wer ohne Zustimmung des Arbeitgebers KI nutzt – und dies auch nicht offenlegt – handelt sich also womöglich Ärger ein. Das gilt erst recht, wenn man KI trotz Verbots des Arbeitgebers verwendet. „Dann muss man damit rechnen, dass man eine Ermahnung, Abmahnung und vielleicht im wiederholten Fall auch eine Kündigung bekommt“, so Meyer.