Analyse du premier cadre réglementaire dédié à l'IA :
Quel impact de l’IA sur les relations de travail ?
- Dernière mise à jour : 15 novembre 2024
Le 12 juillet 2024, un texte législatif marquant une avancée sans précédent a été publié au Journal Officiel de l’Union Européenne : le règlement (UE) 2024-1689. Promulgué le 13 juin 2024, il s’intitule « Règlement établissant des règles harmonisées concernant l’intelligence artificielle ». Ce texte se distingue comme la première réglementation mondiale dédiée à l’intelligence artificielle (IA), visant à établir des règles claires pour le développement, la commercialisation, et l’utilisation des systèmes d’IA au sein de l’Union Européenne (UE).
La portée de ce règlement est ambitieuse. Il s’inscrit dans une vision économique stratégique, en facilitant l’essor et l’adoption des technologies d’IA tout en préservant les valeurs fondamentales de l’UE, telles que la protection des droits humains, inscrites dans la Charte des droits fondamentaux. Toutefois, l’objectif de faire de l’Union un leader mondial dans l’IA ne se fait pas sans concessions.
Une « tension » notable existe entre la volonté de favoriser l’innovation technologique et la nécessité de garantir une IA éthique et responsable, notamment en ce qui concerne la santé, la sécurité et le respect des droits fondamentaux. L’objectif affiché de protéger ces valeurs se combine à la volonté de favoriser les systèmes d’IA, vecteurs de croissance économique.
Le concept d’une IA « digne de confiance » et « responsable » est vu comme un facteur d’acceptabilité sociale, permettant une expansion plus large du marché de ces technologies. Cependant, les exigences relatives à la santé et à la sécurité des utilisateurs ne constituent pas un cadre général applicable à toutes les applications d’IA.
En effet, seuls certains systèmes jugés à haut risque sont soumis à une régulation stricte, tandis que d’autres sont simplement soumis à des obligations de transparence ou sont laissés libres de toute contrainte de mise sur le marché.
Ainsi, le règlement ne doit pas être perçu comme un texte assurant une protection exhaustive des droits fondamentaux face aux innovations technologiques. S’il en reconnaît l’importance, il n’a pas pour but de garantir une défense systématique de ces droits.
Plutôt que de créer un cadre uniforme pour toutes les technologies d’intelligence artificielle, le législateur européen a choisi une approche fondée sur la gestion des risques. Le règlement (UE) 2024-1689 classe les systèmes d’IA selon le niveau de risque qu’ils posent pour la santé, la sécurité et les droits fondamentaux des personnes. Cette méthode permet de moduler les règles de manière différenciée, selon que les systèmes sont jugés acceptables, à haut risque, ou inacceptables.
- Les applications considérées comme inacceptables sont strictement interdites.
- Les systèmes à haut risque, quant à eux, sont soumis à des obligations de régulation rigoureuses, à la fois avant et après leur mise en service.
- Enfin, les systèmes qui ne présentent pas de risques significatifs ne sont soumis qu’à des obligations de transparence.
- Tandis que les autres applications sont libres de commercialisation et d’utilisation.
L’une des caractéristiques importantes de cette législation est qu’elle facilite la diffusion des technologies d’IA, tout en conservant un encadrement suffisant pour protéger les valeurs fondamentales de l’Union. Les interdictions restent relativement rares et sont principalement destinées à préserver des valeurs fondamentales, comme la dignité humaine.
Le règlement accorde une attention particulière à l’utilisation de l’intelligence artificielle dans le cadre des relations de travail. De nombreux systèmes d’IA sont déjà utilisés pour accomplir des tâches diverses, souvent sous la supervision d’employés assistés par des algorithmes. Cet environnement professionnel est perçu comme étant particulièrement vulnérable aux risques pour la santé, la sécurité, et le respect des droits fondamentaux. En raison de la spécificité de cet environnement, le législateur a inclus dans le règlement des dispositions visant à gérer l’utilisation des systèmes d’IA à haut risque dans les relations de travail.
Cependant, il est important de noter que le règlement ne crée pas de cadre spécifique pour les relations de travail, sauf exception. Il permet aux États membres d’adopter des mesures législatives ou réglementaires supplémentaires au niveau national pour renforcer la protection des travailleurs face à l’utilisation des systèmes d’IA, mais n’impose pas de règles spécifiques en la matière. Cette approche laisse aux États membres une certaine latitude pour adapter le cadre réglementaire aux particularités de leur législation nationale.
Certains systèmes d’IA à haut risque sont régulés indépendamment de leur utilisation spécifique, en raison de leur impact potentiel sur la santé et la sécurité. À titre d’exemple, les robots autonomes, de plus en plus utilisés dans l’industrie, sont soumis à des exigences de sécurité rigoureuses. Ces machines doivent opérer en toute sécurité dans des environnements complexes, et leur conception est soumise aux règles du Règlement (UE) 2023/1230 du 14 juin 2023 sur les machines.
D’autres systèmes d’IA à haut risque sont réglementés en fonction de cas d’utilisation spécifiques. Ce sont principalement les risques pour les droits fondamentaux qui déterminent leur régulation. Certaines applications peuvent même être jugées inadmissibles en raison de leur nature intrinsèquement dangereuse. En revanche, les systèmes qui ne posent pas de risque significatif pour la santé, la sécurité ou les droits fondamentaux peuvent échapper à cette classification, à condition que leur innocuité soit prouvée.
L’utilisation de systèmes visant à analyser les émotions des employés sur leur lieu de travail semble expressément interdite. Cette interdiction marque une avancée importante. Elle vise à prévenir les dérives de la gestion des émotions au sein des entreprises, une pratique parfois utilisée pour améliorer la productivité en surveillant les expressions émotionnelles des employés.
Cependant, cette interdiction est limitée. Elle s’applique strictement à l’analyse des émotions à partir de données biométriques, comme les expressions faciales ou le ton de la voix, mais ne couvre pas la détection d’états physiques comme la fatigue. Par exemple, un système d’IA pourrait être utilisé pour détecter la fatigue des employés afin de prévenir les accidents.
Cette exception soulève des interrogations quant à l’utilisation de l’IA pour détecter d’autres états émotionnels dans le cadre de la prévention des risques professionnels.
Les systèmes d’IA à haut risque qui comprennent des cas d’usage spécifiques comme le recrutement ou la gestion des employés, sont soumis à une réglementation stricte. Par exemple, les algorithmes utilisés pour filtrer les candidatures ou évaluer les candidats sont classés comme systèmes à haut risque et doivent répondre à des exigences légales strictes. De même, les systèmes utilisés pour prendre des décisions influençant les conditions de travail, la promotion ou le licenciement des employés sont soumis à une surveillance accrue.
Une fois déployés, ces systèmes devront garantir un contrôle humain effectif, ce qui est particulièrement important dans le domaine de l’emploi, où les décisions prises par l’IA peuvent avoir des conséquences significatives sur la vie des travailleurs. Les employeurs devront informer les représentants des travailleurs avant l’introduction de tels systèmes et veiller à respecter les réglementations en vigueur.
Le règlement (UE) 2024-1689 s’articule également avec d’autres législations européennes, notamment le Règlement Général sur la Protection des Données (RGPD). L’utilisation de l’intelligence artificielle dans les entreprises implique souvent le traitement de données personnelles, en particulier lorsque les systèmes d’IA sont utilisés pour suivre les performances des employés ou évaluer leurs comportements. Le RGPD joue un rôle essentiel dans la protection des travailleurs, en imposant des exigences de transparence et de minimisation des données traitées.
La Commission nationale de l’informatique et des libertés (CNIL) a d’ailleurs rapidement réagi à la publication de ce règlement, en soulignant que les systèmes d’IA à haut risque devront respecter les principes du RGPD, notamment en matière de finalité, de loyauté, et de légitimité du traitement des données.
Le règlement (UE) 2024-1689 marque un tournant majeur dans la régulation des technologies d’intelligence artificielle en Europe.
Tout en visant à encourager l’innovation et le développement de l’IA, il impose des limites claires pour protéger la santé, la sécurité, et les droits fondamentaux des citoyens européens. Dans le domaine des relations de travail, bien que le texte ne crée pas de cadre spécifique pour chaque application, il laisse la porte ouverte aux États membres pour renforcer la protection des travailleurs.
L’IA offre des opportunités immenses, mais elle soulève également des questions complexes concernant les droits des individus. Ce règlement constitue une première étape importante vers la création d’un cadre législatif équilibré, permettant à l’UE de rester compétitive sur la scène mondiale tout en garantissant une IA « digne de confiance ».
Emmanuel Walle
Avocat, Directeur du département Social numérique
Emmanuel Walle
Avocat, Directeur du département Social numérique
- Phone:+33 (0)6 21 56 42 08
- Email:emmanuel-walle@lexing.law
Pour en apprendre davantage
Emmanuel Walle
Avocat, Directeur du département Social numérique
Sommaire
- 1. Législation européenne et intelligence artificielle : un cadre réglementaire pionnier
- 2. Un cadre législatif novateur
- 3. Une approche par les risques
- 4. Une attention particulière aux relations de travail
- 5. Une réglementation modulée en fonction du risque
- 6. Systèmes interdits dans les relations de travail
- 7. Systèmes à haut risque et transparence
- 8. La place du RGPD et la protection des données
- 9. Conclusion