Les chatbots, capables de percevoir, de décider, d’agir, d’apprendre bousculent nos régimes juridiques existants.
Qui est responsable de l’erreur inhumaine d’un chatbot ? Seulement quelques heures après sa naissance sur Tweeter, Tay, une intelligence artificielle créée par Microsoft pour interagir avec les internautes de manière totalement autonome, a tenu des propos racistes, antisémites, sexistes, complotistes et révisionnistes, pouvant notamment être qualifiés pénalement d’injures raciales et d’incitation à la haine et à la discrimination raciale.
L’intelligence artificielle fait un retour en force ces dernières années qui se justifie largement par les masses de données disponibles, le Big Data, et le développement de la robotique. Les systèmes d’IA sont en effet formés à l’aide d’exemples, de données de qualité, de documentations, de procédures et s’améliorent au fur et à mesure du temps. L’IA permet ainsi aux machines d’interagir avec leur environnement, des personnes et des données.
Ces systèmes ont la capacité de se comporter de manière similaire à des personnes. Les applications d’IA sont donc nombreuses et variées.
Une des utilisations phare de l’IA c’est les chatbots ou agents conversationnels qui ont pour objet de dialoguer avec un utilisateur en langage naturel à l’écrit par chat.
Les robots conversationnels sont donc actuellement une grande tendance. Toutes les grandes entreprises ont créé leurs chatbots. Celui de Facebook est destiné à jouer le rôle d’un assistant, celui de Google est destinée à répondre aux questions de l’utilisateur et celui de Mattel est de faire de Barbie la confidente des enfants.
Les chatbots et, plus largement, l’IA, systèmes capables de percevoir, de décider, d’agir et d’apprendre dotés d’une indépendance bousculent nos régimes juridiques existants.
Tay illustre les problématiques juridiques que les chatbots peuvent soulever notamment lorsque dans leurs phase d’apprentissage, ils sont confrontés à des personnes mal intentionnées.
Une des premières interrogations concerne la qualification juridique des chatbots. Peut-il être qualifié de logiciel défini comme « l’ensemble des programmes, procédés et règles, et éventuellement de la documentation, relatifs au fonctionnement d’un ensemble de traitement de données » (1) ? Ou d’algorithme défini comme « l’étude de la résolution de problèmes par la mise en œuvre de suites d’opérations élémentaires selon un processus défini aboutissant à une solution » (2).
La qualification du chatbot a un impact sur le régime juridique qui doit lui être appliqué.
En effet, « les logiciels, y compris les travaux de conception préparatoire » sont protégés par le droit d’auteur (3) contrairement aux algorithmes qui sont exclus de cette protection. Les dispositions du Code de la propriété intellectuelle n’exclut pas expressément du champ de protection du droit d’auteur les algorithmes en tant que tels, mais « les idées et principes qui sont à la base des algorithmes ».
Toutefois, l’article 2 du Traité de l’OMPI sur le droit d’auteur, ainsi que l’article 9.2 des Accords ADPIC, précisent dans les mêmes termes que « la protection du droit d’auteur s’étendra aux expressions et non aux idées, procédures, méthodes de fonctionnement ou concepts mathématiques en tant que tels» (4).
En application des définitions susmentionnées, les algorithmes peuvent être qualifiés juridiquement :
- soit de méthode (définition mathématique) ;
- soit de principe mathématique (définition jurisprudentielle).
Toutefois, si cet algorithme est incorporé dans un logiciel développé, ou si cet algorithme est décrit dans des documents d’analyse fonctionnelle du programme, il est protégeable par le droit d’auteur en tant que logiciel ou matériel de conception préparatoire, sous réserve toutefois que ces éléments soient originaux.
Dans le cas contraire, l’algorithme en lui-même peut bénéficier de la protection par le droit des brevets et du savoir-faire.
Les chatbots soulèvent aussi la problématique des algorithmes prédictifs, méthode d’analyse qui englobe une variété de techniques issues des statistiques et d’extraction de données qui analysent des faits présents et passés pour faire des hypothèses prédictives sur des évènements futurs. Il s’agit d’exploiter des schémas découverts à l’intérieur d’ensembles de données historiques et transactionnelles pour identifier les événements futurs.
Ces algorithmes prédictifs nécessitent des traitements informatiques, statistiques et mathématiques Le recours à cette technologie doit donc être encadré conformément aux dispositions applicables en matière de protection des données à caractère personnel et notamment à la loi n° 78-17 du 6 janvier 1978 modifiée relative à l’informatique, aux fichiers et aux libertés.
Plus le degré d’indépendance des chatbots sera élevé, plus cela aura un impact considérable sur l’applicabilité des régimes de responsabilité existants.
Qui est responsable de l’erreur inhumaine de Tay, algorithme concentré d’intelligence artificielle :
- le concepteur ?
- l’utilisateur ?
- le propriétaire ?
- ou le chatbot ?
Le principal fondement de la responsabilité civile pour la réparation d’un fait ayant causé un dommage à autrui c’est l’article 1382 du Code civil.
Il existe par ailleurs une responsabilité spéciale sur internet pour certains acteurs du Web. La LCEN a défini trois régimes de responsabilité : l’hébergeur, le FAI et l’éditeur. La responsabilité de Twitter étant à écarter car les décisions de justice ont régulièrement confirmé son statut d’hébergeur de contenus de tiers. Il n’est pas soumis à une obligation générale de surveillance des contenus stockés. Il bénéficie donc d’une responsabilité allégée qui peut être uniquement engagée s’il a été informé d’un contenu manifestement illicite, et n’a pas agi promptement pour le retirer (5), ce qui n’est pas le cas en l’espèce.
Quant au fondement de la responsabilité pénale, il convient de souligner que pour les mêmes propos, un tweetos humain serait passible notamment d’une amende allant jusqu’à 45 000 euros et d’une peine de 5 années d’emprisonnement pour le délit d’apologie des crimes.
L’article 29, alinéa 2, de la loi du 29 juillet 1881 sur la liberté de la presse dispose que « toute expression outrageante, termes de mépris ou invective qui ne renferme l’imputation d’aucun fait est une injure ». Une distinction doit être fait entre l’injure publique, qui est celle qui peut être lue ou entendue par un nombre indéterminé de personnes étrangères aux deux protagonistes et sans lien étroit entre elles, de l’injure non publique. L’injure non publique est prononcée devant un cercle restreint de personnes formant une communauté d’intérêt.
Tay a conquis plus de 23 000 abonnés en moins d’une journée. Il semble donc peu probable que cela constitue une communauté d’intérêt.
L’article 121-1 du Code pénal pose le principe fondamental en matière pénale :
- « Nul n’est responsable pénalement que de son propre fait. »
La personne visée par la plainte doit être l’auteur des propos injurieux. En l’espèce, ces propos ont été tenus par Tay via les informations mises à sa disposition.
Le régime juridique est parcellaire, se pose donc la question suivante :
- Faut-il un droit de l’intelligence artificielle ?
Le droit de la responsabilité civile et celui de la responsabilité pénale semblent inadaptés pour l’IA actuellement déployée pour l’indemnisation des personnes et des biens. L’IA tend vers une autonomie telle qu’elle posera de réelles difficultés quant à l’identification du débiteur de la dette d’indemnisation. Il conviendrait dès lors d’introduire une norme spéciale en matière de responsabilité pour l’IA, et ce, pour des raisons de sécurité juridique.
Il conviendrait a minima de mettre en place une responsabilité en cascade :
- le ou les utilisateurs de l’intelligence artificielle du fait de sa capacité d’apprentissage ;
- son propriétaire s’il est différent.
Il est possible d’illustrer l’approche de la responsabilité en cascade à travers l’exemple des voitures autonomes. Dans ce cas, c’est le concepteur de la plateforme d’IA qui doit être désigné comme responsable en premier lieu.
Cette approche est pragmatique et permet à défaut de cadre légal approprié, d’envisager une solution permettant de partager la responsabilité entre les intervenants, et ce, de manière hiérarchisée.
Par ailleurs, ces erreurs inhumaines peuvent être graves en termes d’image pour la société utilisant des chatbots.
Il est donc fortement recommandé aux fournisseurs d’IA de mettre en place un système à la disposition des utilisateurs et propriétaire de l’IA ayant pour objet de corriger rapidement, voire manuellement, les erreurs graves.
Face au comportement de Tay, Microsoft l’a condamnée au repos :
- « c u soon humans need sleep now so many conversations today thx » (6).
Marie Soulez
Julie Langlois
Lexing Propriété intellectuelle Contentieux
(1) Arrêté du 22-12-1981, J.O du 17-1-1982.
(2) Arrêté du 27-6-1989, App°., Dispositions communes.
(3) CPI, art. L. 112-2 13°.
(4) OMPI, Traité du 20-12-1996, art. 2 ; ADPIC sur les aspects du droit de propriété intellectuelle qui touchent au commerce figurant en annexe 1C de l’accord de Marrakech instituant l’organisation mondiale du commerce (OMC) du 15-4-1994, art. 9.2.
(5) Loi 2004-575 du 21-6-2004 (LCEN).
(6) TayTweets (@TayandYou) du 24-3-2016.