Alain Bensoussan décrypte pour Planète Robots les enjeux du développement des algorithmes à l’heure du big data.
Quelles vont être les règles induites du développement des bots et algorithmes à l’heure du big data ?
Les algorithmes prédictifs sont au cœur des enjeux économiques et éthiques de notre société. Ils offrent une efficacité et une rapidité redoutables pour traiter des données complexes et de masse (big data) et surtout tirer des analyses pertinentes dans de nombreux domaines, comme la finance (prédire les fluctuations du marché, trading boursier), les assurances (déterminer des scores de risques), le marketing (cibler et adresser les besoins des consommateurs), mais aussi médical (aider au diagnostic clinique et génétique) et policier.
L’usage de plus en plus fréquent du « prédictif » conduit à faire émerger certains risques juridiques liés en particulier à l’utilisation massive de données à caractère personnel.
Les données personnelles sont l’ensemble des données permettant, directement ou indirectement, de façonner une image, un son, une traçabilité de la personne elle-même. C’est grâce au Big Data que peuvent se faire l’analyse prédictive ou la détection d’un comportement par l’analyse d’un ensemble de « signaux faibles » permettant d’anticiper une action particulière.
Les algorithmes prédictifs soulèvent des questions notamment en termes de protection des données à caractère personnel dès lors que cette technologie nécessite une exploitation massive de données pour obtenir des résultats concluants.
Or l’utilisation de données à caractère personnel est encadrée par la loi Informatique et Libertés à travers certains principes pas toujours compatibles avec les technologies prédictives.
Le Conseil d’État a émis fin 2014, plusieurs propositions visant à encadrer spécifiquement l’utilisation des algorithmes prédictifs dans son étude intitulée Le numérique et les droits fondamentaux (1).
Alain Bensoussan, Planète Robots, « Les algorithmes analytiques et prédictifs », n°38, Mars 2016.