written by
Ideta

Chatbot, Vie privée et Réglementation : comment un bon design peut nous aider à éviter les ennuis

6 min , March 16, 2022

La question de la vie privée lors de l’utilisation de chatbot est devenue un sujet sensible au cours de ces dernières années.

S’il est vrai que l’IA conversationnelle donne aux entreprises la possibilité de rassembler une énorme quantité de données clients et utilisateurs, il est également vrai que les chatbots mènent à un risque plus élevé de violation de la législation sur la vie privée.

C’est la raison pour laquelle des considérations juridiques doivent être dûment prises en compte par toute entreprise lors de la planification de l’utilisation de chatbots dans le marketing conversationnel.

L’utilisation des chatbots pose une myriade de questions juridiques qui doivent être abordées par l’adoption de politiques internes appropriées et le recours à une grande prudence dans le choix des agences externes et des fournisseurs qui offrent des services de chatbot.

Quels risques pour la vie privée lors de l’utilisation de chatbots?

Le principal problème avec la confidentialité des chatbots est que les bots ne sont pas aussi intelligents que nous nous y attendons.

Par exemple, si un chatbot doit identifier quelqu’un, il doit collecter une quantité assez importante de données personnelles, ce qui est contraire au principe de minimisation des données (« moins vous en demandez, mieux c’est ») du Règlement général européen sur la protection des données (RGPD).

Le profilage des clients est une autre activité à la limite de la légalité. Le bot doit analyser et combiner de grands ensembles de données personnelles, ce qui entre en opposition avec le principe de confidentialité.

La règle de limitation de la finalité stipule que les données personnelles ne peuvent être utilisées que pour un but spécifique. Cela fixe une limite rigide à toute collecte de données.

D’autres limites découlent de l’interdiction de la collecte de données personnelles sensibles (comme l’ethnicité, la religion, la santé) et de l’obligation de traiter les données de manière transparente.

Malheureusement, l’intelligence artificielle ne peut pas être transparente, car à certains égards, elle est opaque même pour les web développeurs qui l’ont construite.

Enfin, les personnes ont le droit de s’opposer à l’utilisation de leurs données personnelles, et elles peuvent en demander la suppression. Respecter la vie privée sur un chatbot signifie aussi protéger ces deux droits.

Erreurs de confidentialité et Chatbot

Le droit des personnes à demander la suppression de leurs données personnelles mérite quelques réflexions supplémentaires. Les chatbots sont loin d’être parfaits et infaillibles, ce qui crée des risques d’enfreindre les règles de confidentialité de chatbot.

Le cas le plus important est un chatbot de recrutement Amazon AI qui s’est avéré être sexiste. Le bot a été amené à penser que les hommes sont meilleurs que les femmes en raison des volumes plus élevés de CV des hommes qu’il a obtenu!

Un autre cas est Tay, un chatbot d’IA qui a été introduit par Microsoft dans le but d’augmenter l’engagement sur les réseaux sociaux. Malheureusement, Tay a commencé à s’exprimer de façon raciste et à exprimer des opinions d’extrême droite et nazies.

Le dernier cas est Beauty, un chatbot d’IA qui était censé juger la beauté impartialement. Après un certain temps, ils ont découvert que Beauty AI n’aimait pas les visages à la peau sombre.

Les cas d’échec de l’IA mentionnés ci-dessus devraient nous faire réfléchir. Personne ne souhaite donner des données sensibles à quelqu’un qui a des préjugés contre lui. Par conséquent, le problème de la vie privée est commun aux humains et aux bots, surtout lorsque les chatbots commettent les types d’erreurs qui sont illustrées par les trois exemples ci-dessus.

Chatbot fournisseurs de services de confidentialité et d’IA


Un autre problème de la confidentialité chatbot est que la plupart des entreprises n’ont pas la capacité de traiter des données ou de gérer le fonctionnement complexe des bots.
La solution la plus populaire est d’externaliser l’ensemble du processus de création, de gestion et de maintenance du chatbot.

Malheureusement, le fait de confier le travail à une entreprise spécialisée ne dégage pas une entreprise de sa responsabilité juridique, conformément à la loi sur la protection des renseignements personnels.

l’organisation est toujours responsable des violations de la vie privée, même si les violations ont été commises par une tierce société sur laquelle l’entreprise n’a aucun pouvoir.

Chatbots : comment un bon design aide au respect de la vie privée?


Une organisation peut mettre en œuvre plusieurs stratégies design pour réduire les risques juridiques liés à la protection de la vie privée par un chatbot.

Établir une réglementation sur les chatbots

Une entreprise devrait créer des politiques internes et des process internes pour établir l’étendue des activités allouées à ses chatbots. Voici d’autres points importants à considérer :

  • quels renseignements sont recueillis et comment
  • où les informations sont envoyées et stockées
  • les autres points habituels que toute bonne politique de confidentialité devrait traiter

Concevez votre chatbot de manière à intégrer votre politique de confidentialité


Les biais des chatbots peuvent être évités, et tous les chatbots conversationnels peuvent être conçus de manière à respecter les règles de la politique chatbot.
Il est en particulier possible d’éviter les problèmes liés à la religion, la santé, l’ethnicité, ou d’autres types de données sensibles à caractère personnel.

Utiliser le chiffrement et le filtrage des données

Rendre moins visible les données personnelles sensibles pourrait être nécessaire pour mettre en œuvre une politique de confidentialité chatbot efficace. Ces deux technologies permettent aux concepteurs de chatbot d’atteindre cet objectif.

Consentement du contrôle humain sur les chatbots d’IA

Selon l’article 25 du RGPD de l’UE, les chatbots IA doivent être configurés de manière à autoriser le contrôle humain sur ces robots.

Confidentialité de Chatbot : considérations finales

Comme nous l’avons vu dans les paragraphes précédents, la plupart des problèmes avec la vie privée de chatbot peuvent être abordés en prenant soin de leur conception.

En d’autres termes, la conception de chatbot et la confidentialité des chatbots devraient faire partie intégrante de vos meilleures pratiques et des erreurs à éviter avec les chatbots.

Si vous êtes PDG ou manager, une bonne approche de départ pourrait être d’avoir une idée précise de ce quest un chatbot et comment cela fonctionne.

Une connaissance du terrain est la seule façon de pouvoir poser les bonnes questions aux développeurs et aux avocats et de bien comprendre leurs réponses.

Savoir quelles sont les bonnes questions à se poser signifie commencer du bon pied pour éviter d’avoir des problèmes liés à la vie privée par la suite.

« La stratégie sans tactique est la route la plus lente vers la victoire ; la tactique sans stratégie est le fracas annonciateur de la défaite, a déclaré Sun Tzu. Et obtenir les informations nécessaires sur l’ennemi est la première étape pour élaborer une bonne stratégie, même dans le monde des chatbots.

Rejoignez notre newsletter !
Sign up for our newsletter