Interview

IT-Anwalt: Das müssen Unternehmen über Chatbots wissen

Dem menschlichen Kundenberater überlegen? Chatbots. (Grafik: Shutterstock)

Lesezeit: 9 Min. Gerade keine Zeit? Jetzt speichern und später lesen

Gerade im Kundenservice denken Unternehmen über den Einsatz von Chatbots nach. Doch was müssen die Firmen dabei beachten? Ein IT-Anwalt leistet Hilfestellung.

Glaubt man dem Zukunftsforscher Ray Kurzweil, werden Bots nicht vor 2029 den sogenannten Turing-Test bestehen. Das heißt, davor sollen sie nicht in der Lage sein, frei mit einem Menschen zu sprechen, ohne dass dieser merkt, dass sein Gegenüber eine Maschine ist.

Im Gespräch: Jörg-Alexander Paul, Fachanwalt für IT-Recht

Jörg-Alexander Paul, Fachanwalt für IT-Recht, beschäftigt sich unter anderem mit der rechtlichen Grundlage für Chatbots.

Trotzdem setzen mittlerweile viele Firmen auf solche Bots. Diese entlasten menschliche Mitarbeiter etwa im Bereich Kundenservice. Doch auf was sollte man als Unternehmer achten, wenn man diese mit künstlicher Intelligenz ausgestatteten Dialogsysteme einsetzt?

Die wichtigsten Themenkomplexe klärt t3n.de im Gespräch mit dem auf IT-Recht spezialisierten Anwalt Jörg-Alexander Paul von der Wirtschaftskanzlei Bird and Bird. Er beschäftigt sich unter anderem mit den Themen Datenschutz, IT-bezogenem Urheberrecht und internationalem Recht.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Zu sprechen kommt der Experte unter anderem auf die Speicherung von Daten, die sogenannte „zweite Rechtfertigungsebene“ – und die größte Angst vieler derjenigen Unternehmer, die Chatbots schon aktiv einsetzen.

Was Unternehmer rechtlich über Chatbots wissen müssen

t3n.de: Jörg-Alexander, vor was haben deine Klienten, die Chatsbots einsetzen, denn am meisten Angst?

Jörg-Alexander Paul: Es gibt einige, die haben den Twitter-Bot von Microsoft vor Augen, der ziemlich schnell zum Rechtsextremisten wurde, weil sich eine Gruppe von Menschen offensichtlich einen Spaß daraus gemacht hatte, dieses selbstlernende System mit bestimmten Dingen zu füttern. Mandanten, die dieses Beispiel vor Augen haben, befürchten, dass sich ihre selbstlernenden Systeme in eine Richtung entwickeln, die reputationsschädigend sein kann. Ein anderer Aspekt ist, dass die Einführung eines Bots immer zu arbeitsrechtlichen Fragestellungen mit Mitarbeitern führt, weil diese Bedenken haben, dass sie durch einen Bot ersetzt werden. Und natürlich ist der Datenschutz immer ein großes Thema, wenn es darum geht, dass der Bot Kundendaten verarbeitet.

Kannst du als Anwalt den Einsatz von Chatbots denn grundsätzlich empfehlen?

Aus Anwaltssicht ja, aber die Frage sollte man eigentlich an einen Entwickler des Bots richten. Ich gebe diese etwas vage Antwort, weil ich der Meinung bin, dass wir beim Einsatz jedes Hilfsmittels, also auch eines Chatbots, einfach wissen müssen, was dieses Hilfsmittel genau kann. Und wenn der Chatbot das kann, was er soll, habe ich auch juristisch keinerlei Bedenken gegen den Einsatz.

Aber …

Bedenken muss man, dass man als Unternehmer selbst verantwortlich bleibt, wenn man Chatbot einsetzt. Es spielt also keine Rolle, ob man nun einen Mitarbeiter mit einem Kunden interagieren lässt oder eben einen automatisierten Helfer.

Das sehen offensichtlich nicht alle Unternehmen so …

Genau. Von Chatbots wird oft wie von Individuen oder selbstständigen Dingen gesprochen. Das ist allerdings aus meiner Sicht schlicht nicht richtig.

„Der Unternehmer, der den Bot einsetzt, bleibt verantwortlich.“

Kann der Chatbot denn einen menschlichen Kundenberater im juristischen Sinn vollwertig ersetzen?

Bei einfachen Vorgängen auf jeden Fall. Sollte die Programmierung jedoch nicht ausreichen, einen Sachverhalt zu entscheiden, darf sie nicht in eine Endlosschleife münden. Der Bot sollte dann stattdessen dafür sorgen, dass der Kunde an einen menschlichen Kundenberater weitergeleitet wird.

Warum?

Weil eine Maschine juristisch einen Menschen nicht ersetzen kann. Hier gilt wieder: Der Unternehmer, der den Bot einsetzt, bleibt verantwortlich. Er ist für seinen Mitarbeiter ebenso verantwortlich wie für seinen Roboter.

Muss der Kunde eigentlich explizit darüber aufgeklärt werden, dass er es mit einem Chatbot zu tun hat?

Nein. Wer allerdings eine Partnervermittlung anbietet, muss im Falle des Einsatzes von Chatbots dafür sorgen, dass diese nicht so tun, als seien sie Menschen. Kurz gesagt: Wenn es nicht darauf ankommt, dass ein menschliches Wesen der Kommunikationspartner ist, muss dies vom Unternehmen gegenüber dem Kunden nicht explizit kenntlich gemacht werden.

6 Fragen, die sich jedes Unternehmen in der Digitalisierung stellen sollte

Nutze ich effiziente Software?

1. Haben meine Mitarbeiter mobil Zugriff auf wichtigste Unternehmensdaten wie CRM, ERP und Business-Intelligence?

2. Gibt es ein Software-Tool wie Slack, mit dem die interne Kommunikation effizienter werden kann?

3. Für welche Dinge wird im Unternehmen Microsoft Excel eingesetzt? Gibt es eine bessere Software?

4. Gibt es On-Premise-Lösungen, die in eine Public Cloud ziehen könnten?

(Foto: Rawpixel.com Adobe Stock)

1 von 6

Spielt das Persönlichkeitsrecht eine Rolle?

Nein, denn die Persönlichkeit des Kunden wird nicht tangiert, wenn er statt mit einem Menschen mit einem Chatbot kommuniziert. Relevant wird die Thematik um Persönlichkeitsrechte erst dann, wenn mit den Daten des Kunden etwas geschieht, was dieser nicht will oder der Gesetzgeber nicht erlaubt. Wer, ob Mensch oder Bot, mit dem Kunden kommuniziert, ist also juristisch erst einmal völlig egal, solange keine Täuschung entsteht.

Nehmen wir das Beispiel des Chatbots von T-Mobile Austria, der heißt Tinka, berät auf der Website und sieht aus wie ein außerirdisches Mädchen …

Hier ist es offensichtlich, dass es sich um einen Roboter handelt, und somit ist die Sache juristisch völlig unbedenklich. Es könnte allerdings eine Täuschung entstehen, wenn doch ein Mensch die Fragen beantwortet. Zum Beispiel, wenn ein Unternehmen seinen Chatbot als besonders intelligent bewirbt, aber eben doch ein Mensch dahintersteht.

Viele, gerade große Unternehmen verfügen über umfangreiche Daten über ihre Kunden. Dürfen sie diese beim Einsatz von Chatbots zur Kundenkommunikation bedenkenlos verwenden?

Sie dürfen es, ebenso wie ein menschlicher Kundenberater auf die Daten zugreifen dürfte. Da gibt es keinen Unterschied zwischen Mensch und Maschine. In beiden Fällen haben wir eine Datenverarbeitung. Ob diese zulässig ist, hängt von der Art der Daten ab und davon, ob der Kunde in eine spezielle Nutzung der Daten eingewilligt hat. Hier sind wir im ganz klassischen Datenschutzrecht. Dass die Maschine die Beratung möglicherweise sehr viel effizienter durchführen kann, weil sie sehr viel tiefer in große Datenbestände eindringen kann, steht auf einem anderen Blatt. Und das führt sicherlich auch dazu, dass in einem größeren Maße die Persönlichkeitsrechte des Kunden betroffen sind. Qualitativ macht es also keinen Unterschied, quantitativ schon.

Und was ist mit den Daten, die während der Beratung durch den Chatbot anfallen? Dürfen Unternehmen diese einfach speichern?

Auch hier gibt es keinen Unterschied zwischen Mensch und Maschine. Hinter jeder Maschine steht ein Unternehmer oder eine rechtliche Einheit, etwa ein Staat, der die Daten verarbeitet – und diese nur verarbeiten darf, wenn er eine Rechtfertigung hat.

Wann ist die Verarbeitung denn juristisch gerechtfertigt?

Die Rechtfertigung ergibt sich derzeit aus dem Bundesdatenschutzgesetz, und ab Mai 2018 aus der Datenschutzgrundverordnung der EU. Liegt eine solche Rechtfertigung vor, dann dürfen die Daten verarbeitet werden. In den seltensten Fällen wird eine Einwilligung von Seiten des Kunden vorliegen, stattdessen oft eine Rechtfertigung auf Basis der Vertragsbeziehung. Ansonsten kann es eine Nutzung der Daten auf Basis einer sogenannten Interessenabwägung geben oder natürlich auch auf Basis einer Einwilligung. Diese ist allerdings schwer zu bekommen, weil sie nur dann wirksam ist, wenn es sich um eine sogenannte aufgeklärte Einwilligung handelt, bei der dem Betroffenen alle Umstände der Datennutzung oder der beabsichtigten Datennutzung auch mitgeteilt werden.

Klingt komplex und nach Arbeit für Anwälte.

Mehr noch: In Zukunft wird sich die Frage stellen, ob Einwilligungen überhaupt noch richtig verwendet werden können, weil es in der Datenschutzgrundverordnung ein sogenanntes Kopplungsverbot gibt. Danach darf man sich eine Einwilligung nicht im Rahmen von anderen Geschäften geben lassen. Das ist ein noch ungeklärtes Thema. Dem Grundsatz nach lässt sich allerdings sagen: Einwilligungen dürfen künftig nicht mehr mit anderen Rechtsgeschäften gekoppelt werden.

Wenn man wie etwa die Lufthansa seinen Chatbot über Facebook laufen lässt: Wie sieht es dann mit dem Datenschutz aus?

Die Lufthansa betreibt diesen Chatbot und ist dementsprechend für das, was ihre Maschine macht, auch verantwortlich. Die Aktivität einer Maschine wird also dem Unternehmen zugeordnet. Wenn es einen Chatbot einsetzt, mag es sich noch weiterer Unternehmen bedienen, die in die Datenverarbeitung eingebunden sind. Eine solche Einbindung kann im Rahmen der Auftragsverarbeitung erfolgen. In diesem Fall sind außer vertraglicher Vorkehrungen keine weiteren Rechtfertigungsgründe erforderlich. Wenn allerdings sogenannte gemeinsame Verantwortlichkeiten bestehen, müssen für die Nutzung der Daten Rechtfertigungen vorliegen. Das ist eine komplexe Thematik. Noch spannender wird das Ganze, wenn Daten außerhalb von Europa verarbeitet werden.

Was ist dann?

Dann braucht man als Unternehmer eine zweite Rechtfertigungsebene. Auf dieser muss das Unternehmen dann prüfen, ob in dem Land, in dem die Daten verarbeitet werden, ein adäquates Datenschutzniveau besteht.

Wann ist das der Fall?

Es besteht entweder, weil die Gesetze in einem Land so ausgereift sind wie bei uns in der Europäischen Union, oder weil bestimmte vertragliche Vorkehrungen getroffen worden sind, die den Schutz der Daten herstellen.

Wer bestimmt diesen Grat der Ausgereiftheit?

Die EU-Kommission. Und zwar indem sie eine Entscheidung trifft und feststellt, dass die Datenschutzgesetze auf dem gleichen Niveau sind wie bei uns.

In welchen Ländern ist das im Moment der Fall?

Das gilt zum Beispiel für Kanada, die Schweiz und Argentinien, nicht aber für die USA, Japan, Indien oder Russland. Akzeptiert sind also solche Staaten, die eine ähnliche Rechtsstaatlichkeit haben wie die, die wir in Europa für richtig halten.

Und was ist, wenn das nicht der Fall ist, zum Beispiel im Hinblick auf die USA?

Dann braucht man als Unternehmer einen Vertrag oder ein bilaterales Abkommen. Früher gab es „Safe Harbor“, heute gibt es das „Privacy Shield“, das eine solche sogenannte Adäquanz herbeiführen kann.

Das hört sich alles sehr komplex an. Kann ein Mittelständler einen Chatbot ohne Bedenken einführen, ohne ein Heer von internationalen Anwälten beschäftigen zu müssen?

Ich würde sagen, auch für einen Mittelständler ist es grundsätzlich möglich, ein sauberes System ohne anwaltliche Hilfe aufzubauen. Aber je komplexer die Datenverarbeitung wird, desto eher muss das Unternehmen dafür sorgen, dass es rechtlich sicher aufgebaut wird. Und dann benötigt es schnell anwaltliche Beratung. Wenn sie beispielsweise einen Programmierer beauftragen, der in Deutschland bei einem größeren Telekommunikationsunternehmen sitzt, kann man davon ausgehen, dass man sehr gute vertragliche Regelungen bekommt, also solche, die ausreichen. Nutzen Unternehmen allerdings einen Service, der außerhalb von Europa gespeist wird, sollten sie sich rechtlich absichern, indem sie etwa einen spezialisierten Anwalt konsultieren.

Was passiert eigentlich, wenn ein Chatbot den Kunden falsch berät und dieser dadurch Schaden erleidet?

Das ist vielleicht die spannendste Frage in Bezug auf den Einsatz von Maschinen mit künstlicher Intelligenz: Wer ist für diese Maschinen verantwortlich? Hier gibt es immer wieder den Ruf nach neuen Gesetzen, den ich für unsinnig halte.

Warum?

Weil wir mit wenigen Ausnahmen alle sich ergebenden Fragen mit dem vorhandenen Werkzeugkasten, sprich vorhandenen Gesetzen, beantworten können. Hier ist zwischen unterschiedlichen Ebenen zu differenzieren. Im Verhältnis zwischen Kunde und Anbieter ist immer der Anbieter verantwortlich.

Ein Beispiel?

Wenn ich als Anwalt einen Chatbot einsetzen würde, um eine Rechtsfrage zu beantworten, und dieser die Frage in einer Art und Weise beantwortet, die bei meinem Kunden zu einem Schaden führt, bin ich als Anwalt verantwortlich. Und zwar im Rahmen meiner vertraglichen Vereinbarung mit oder ohne Haftungsbegrenzung, je nachdem, was ich abgesprochen habe.

Was ist mit dem Programmierer des Bots?

Ich als Anwalt könnte diesen Programmierer angehen und ihm vorwerfen, etwas programmiert zu haben, was nicht den Erwartungen entspricht, die ich hatte, nämlich: richtigen Rechtsrat zu erteilen. Hier gibt es also zwei Ebenen: die des falschen Programmierens, also die der falschen Logik, und die Ebene des falschen Inhalts. Wenn der Programmierer mir nur ein Produkt zur Verfügung stellt, das weiß, wie es bestimmte Fragen zu beantworten hat, aber ich als Anwalt den Inhalt beifüge, dann wird sich die Frage stellen: Ist die Programmierung falsch, weil die Logik nicht funktioniert, oder sind die Inhalte falsch, weil ich sie falsch eingegeben habe? Während ich als Betreiber eines Chatbots immer dem Kunden gegenüber verantwortlich bin, muss der Programmierer des Chatbots mir wiederum meinen Schaden ersetzen, wenn er den Fehler gemacht hat.

Sollte der Programmierer zumindest juristische Basics draufhaben, um nicht vorschnell für einen Fehler verantwortlich gemacht werden zu können?

Er hat die Aufgabe, eine bestimmte Logik zu erstellen. Nehmen wir an, er bekommt die Aufgabe, einen Chatbot zu programmieren, der jemanden beim Kleidungskauf beraten soll. Dann geht ein Fragespiel los: Mann oder Frau? Groß oder klein? Kleid oder Hose? Was natürlich nicht passieren darf, ist, dass der Kunde, der eigentlich eine blaue Hose wollte, einen roten Rock bekommt. Die Fragen müssen also zum Beispiel in einer logisch richtigen Abfolge abgefragt werden, damit das Ergebnis des Dialogs auch in eine richtige Bestellung mündet. Und: Natürlich empfiehlt es sich für jeden, der sich im Rechtsverkehr bewegt, gewisse Grundkenntnisse juristischer Fragestellungen zu haben.

Vielen Dank für das Gespräch, Jörg-Alexander.

Mehr zum Thema Chatbots:

Meistgelesen

Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Schreib den ersten Kommentar!

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!

Hey du! Schön, dass du hier bist. 😊

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team bestehend aus 70 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Danke für deine Unterstützung.

Digitales High Five,
Luca Caracciolo (Chefredakteur t3n) & das gesamte t3n-Team

Anleitung zur Deaktivierung