« La responsabilité des IA mieux encadrée en Europe », c’est le titre de l’article dans lequel Alain Bensoussan évoque pour Le Figaro le projet de directive sur la responsabilité des IA que la Commission européenne vient de présenter. Dans cet article publié le 29 septembre 2022, Ingrid Vergara, journaliste au Figaro, évoque l’annonce par la Commission européenne le 28 septembre 2022 de l’adoption de deux propositions visant à « adapter les règles de responsabilité à l’ère numérique, à l’économie circulaire et à l’impact des chaînes de valeur mondiales ».
Premièrement, la Commission propose de « moderniser les règles existantes concernant la responsabilité objective des fabricants pour les produits défectueux (des technologies intelligentes aux produits pharmaceutiques) » (1).
Les règles révisées offriront aux entreprises, selon Bruxelles, une sécurité juridique leur permettant d’investir dans des produits nouveaux et innovants. Elles garantiront aussi que les victimes peuvent obtenir une indemnisation équitable lorsque des produits défectueux, y compris des produits numériques et remis à neuf, causent un préjudice.
En second lieu, la Commission propose pour la première fois une harmonisation ciblée des règles nationales en matière de responsabilité applicables à l’IA. L’objectif : permettre aux victimes de dommages liés à l’IA d’obtenir plus facilement réparation.
Selon la Commission :
« les nouvelles règles conduisent à un équilibre entre la protection des consommateurs, la promotion de l’innovation et la suppression d’obstacles supplémentaires empêchant les victimes d’obtenir réparation, tout en établissant des garanties pour le secteur de l’IA en introduisant, par exemple, le droit de contester une action en responsabilité fondée sur une présomption de causalité ».
Protéger les victimes des dommage causés par une IA
Ce que propose l’Europe : un accès plus aisé aux voies de recours pour les victimes grâce à la directive sur la responsabilité des IA.
Celle-ci harmonisera certaines règles pour les actions en réparation ne relevant pas du champ d’application de la directive sur la responsabilité du fait des produits, dans les cas de dommages causés par un comportement fautif.
Cela concerne, par exemple, les atteintes à la vie privée ou les dommages causés par des problèmes de sécurité. Les nouvelles règles permettront, par exemple :
- d’obtenir plus facilement réparation si une personne a subi une discrimination à l’embauche à cause d’un algorithme.
Simplifier le processus juridique de responsabilité des IA
La directive simplifie le processus juridique pour les victimes lorsqu’il s’agit pour elles de prouver que la faute d’une personne a causé des dommages, en introduisant deux éléments principaux.
Dans des circonstances où une faute pertinente a été établie et où un lien de causalité avec les performances de l’IA semble raisonnablement probable :
la « présomption de causalité » répondra aux difficultés rencontrées par les victimes lorsqu’elles doivent expliquer en détail comment un préjudice a été causé par une faute ou une omission particulière, ce qui peut être particulièrement difficile lorsqu’il s’agit de comprendre et de parcourir des systèmes d’IA complexes.
Une réglementation horizontale valable pour tous les systèmes d’IA
Par ailleurs, les victimes disposeront d’un plus grand nombre d’outils pour demander réparation en justice. En cas d’utilisation de systèmes d’IA à haut risque, elles pourront accéder aux éléments de preuve auprès des entreprises et fournisseurs.
Selon Alain Bensoussan, interrogé par Le Figaro, « C’est la première fois dans le monde qu’on met en place une réglementation « horizontale » valable pour tous les systèmes d’intelligence artificielle ».
Eric Bonnet
Avocat, Lexing Alain Bensoussan Avocats,
Directeur de la communication juridique
(1) Commission européenne, communiqué de presse du 28-09-2022.