Braucht der Chatbot einen Anwalt? Juristische Fragen zu Datenschutz und Co

Kunden haben bei Serviceanfragen immer häufiger mit Chatbots zu tun und sind damit auch durchaus zufrieden: Laut BITKOM möchten 64 Prozent der Befragten Verbraucher Chatbots beim Kauf von Veranstaltungstickets einsetzen; 58 Prozent für Recherchen beim Online-Shopping. Wenn Kunden mit einem Chatbot interagieren – sei es beim Shopping oder im Kunden-Service – dann braucht der digitale Helfer oft auch Zugriff auf die Kundendaten. Doch wie sieht es mit den rechtlichen Aspekten beim Thema Datenschutz und Chatbot aus? Und wer ist eigentlich verantwortlich, wenn der Chatbot den Kunden Quark erzählen sollte? t3n hat dazu mit dem IT-Recht-Fachanwalt Jörg-Alexander Paul gesprochen.

Dieser spricht den wichtigen Aspekt an, dass Unternehmen für alle „Mitarbeiter“ – seien sie menschlich oder digital – verantwortlich sind:

“(…) eine Maschine (kann) juristisch einen Menschen nicht ersetzen. Hier gilt wieder: Der Unternehmer, der den Bot einsetzt, bleibt verantwortlich. Er ist für seinen Mitarbeiter ebenso verantwortlich wie für seinen Roboter.“

Wer ist für den Chatbot verantwortlich?

Was passiert, wenn der Chatbot einem Kunden einen falschen Rat gibt? Anwalt Jörg-Alexander Paul spricht hier von zwei möglichen Ebenen, auf denen Fehler entstehen können: „die Ebene des falschen Programmierens, also die der falschen Logik, und die Ebene des falschen Inhalts.“ Hier muss im Zweifelsfall unterschieden werden, welche Ebene zu Fehlern geführt hat, und wer deshalb verantwortlich ist: der Programmierer oder das Unternehmen, das den Chatbot mit den entsprechenden Inhalten „gefüttert“ hat.

Chatbot und Datenschutz

Überraschend für einige mag sein, dass es auch beim Thema Datenschutz kein juristischen Unterschied zwischen Mensch und Chatbot gibt – beide dürfen auf Kundendaten zugreifen. Dazu der Anwalt:

„Da gibt es keinen Unterschied zwischen Mensch und Maschine. In beiden Fällen haben wir eine Datenverarbeitung. Ob diese zulässig ist, hängt von der Art der Daten ab und davon, ob der Kunde in eine spezielle Nutzung der Daten eingewilligt hat. Hier sind wir im ganz klassischen Datenschutzrecht. Dass die Maschine die Beratung möglicherweise sehr viel effizienter durchführen kann, weil sie sehr viel tiefer in große Datenbestände eindringen kann, steht auf einem anderen Blatt. Und das führt sicherlich auch dazu, dass in einem größeren Maße die Persönlichkeitsrechte des Kunden betroffen sind. Qualitativ macht es also keinen Unterschied, quantitativ schon.“

Solche juristischen Fragen und besonders auch klare Datenschutzbestimmungen sollten vor dem Einsatz von Chatbots geklärt werden. Damit ist schon ein wichtiger Grundstein gelegt für eine gute Beziehung zwischen Kunde und Chatbot. Für solche geglückten Beziehungen gibt es inzwischen zahlreiche Beispiele, „Ask Mercedes“ und Chatbot „EVA“  bei der INTER Versicherung. Beide Chatbots basieren auf IBM Technologie.

 

One comment

  • Ja, die Frage lässt sich so leicht nicht beantworten.

    Es gibt aber schon Unterschiede, ob ein Mensch oder eine Maschine handelt. Hierauf muss hingewiesen werden.

    Im Übrigen gehen die datenschutzrechtlichen Erwägungen hier nicht weit genug. Es muss ja überhaupt erstmal eine Rechtsgrundlage oder eine Einwilligung des Betroffenen bestehen. Und dann muss nach der DSGVO (Art. 13 DSGVO) auch aufgeklärt werden über die Datenverarbeitung. Dieses könnte sogar dazu führen, dass auch IT-Sicherheitskonzepte zu entwickeln sind. Bei Facebook bin ich ohnehin immer skeptisch. Kaum einer weiß, was tatsächlich mit den Daten passiert. Und ob diese verschlüsselt sind?

    Ein paar weitere Infos zu dem Thema findet man hier: https://www.datenschutz-notizen.de/datenschutz-bei-neuen-kommunikationskanaelen-wie-chatbots-und-messenger-diensten-der-automatisierte-kundenkontakt-der-zukunft-3520019/

    Und ob der “Chatbot” einen Anwalt braucht, ist schon etwas lustig. Wird dieser nun zum Subjekt?

Kommentare sind sehr willkommen