Alain Bensoussan revient, pour Planète Robots, sur la décision du Conseil constitutionnel qui encadre le recours aux algorithmes autoapprenants dans la prise de décisions administratives.
De l’aide à la décision à la prise de décision, il n’y a qu’un pas…
Le big data est caractérisé par son potentiel à permette un traitement inédit des données de masse (mégadonnées), données brutes, hétérogènes et dynamiques. Le développement du big data, ensemble particulièrement volumineux de données, est l’un des moteurs essentiels du processus d’apprentissage automatique des algorithmes prédictifs (machine learning).
Bon nombre de règles qui déterminent nécessairement l’acceptation ou le refus d’une demande par l’administration peuvent en effet être formulées sous forme d’algorithmes dans des domaines aussi divers que la santé, l’éducation (plateforme Parcoursup), l’assurance maladie et la protection sociale (prestations sociales, allocation chômage, etc.).
Ces algorithmes ou robots logiciels appliqués à des jeux de données personnelles peuvent ainsi mener à la prise de décisions entièrement automatisées à l’égard des administrés. Or, en utilisant des outils qui automatisent le processus décisionnel, le risque de décisions préformatées existe bel et bien (1).
C’est la raison pour laquelle la Loi informatique et libertés a toujours interdit toute prise de décision produisant des effets juridiques à l’égard d’une personne sur le seul fondement d’un traitement automatisé, sans intervention humaine et sans que la personne concernée ne soit mise à même de présenter ses observations (art. 10 de la loi). Or, les algorithmes prédictifs dépassent souvent la simple fonction d’aide à la décision.
Le droit de refuser le profilage algorithmique
Le Règlement européen sur la protection des données (RGPD) prévoit des règles plus restrictives encore à l’égard des processus de prise de décision entièrement automatisés. Il pose comme principe qu’une personne a le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé, produisant des effets juridiques à son égard ou l’affectant de manière significative (art. 22 du RGPD).
Ce droit à ne pas être soumis à une décision fondée exclusivement sur un traitement automatisé, s’applique y compris lorsqu’elle découle d’un « profilage » (rejet automatique d’une demande de crédit en ligne ou d’un recrutement en ligne sans aucune intervention humaine, par exemple).
Par principe, les individus ont donc le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé et produisant des effets juridiques à leur égard ou les affectant particulièrement. En d’autres termes, ils ont le droit à l’intervention d’une personne humaine dans la prise de décision.
Algorithmes autoapprenants : l’avertissement du conseil constitutionnel
Dans une décision en date du 12 juin 2018 (2), le Conseil constitutionnel a été amené à se prononcer pour la première fois sur la question du recours à des algorithmes autoapprenants comme fondement d’une décision administrative individuelle. Il pose trois conditions à cet usage :
- une information intelligible doit être délivrée à la personne intéressée sur l’usage en toute transparence de l’algorithme et de ces caractéristiques (art. L. 311-3-1 du Code des relations entre le public et l’administration) ;
- des recours administratifs doivent être possible contre les décisions fondées sur l’algorithme et les juges sont susceptibles d’exiger de l’administration la communication de l’algorithme ;
- l’algorithme de traitement utilisé ne doit pas porter sur des données sensibles (données raciales ou ethniques, opinions politiques, convictions religieuses ou philosophiques ou appartenance syndicale, données génétiques, biométriques ou de santé ainsi que l’orientation sexuelle d’une personne). En aucun cas, de tels algorithmes ne peuvent être utilisés faute pour le responsable du traitement, de pouvoir expliquer leur fonctionnement.
Le Conseil constitutionnel marque ainsi une défiance à l’égard des algorithmes auto-apprenants, relevant que le responsable du traitement doit s’assurer de la maîtrise du traitement algorithmique et de ses évolutions afin « de pouvoir expliquer, en détail et sous une forme intelligible, à la personne concernée la manière dont le traitement a été mis en œuvre à son égard » (§ 71 de la décision).
Isabelle Pottier
Directeur Études et Publications
Alain Bensoussan pour Planète Robots, « Robots logiciels interdits de prise de décision », n°54, Novembre-décembre 2018.
(1) A. BENSOUSSAN, Blog expert du Figaro.fr, 25 octobre 2017.
(2) Conseil constitutionnel, Décis. 2018-765 DC, § 71.