La réunion des experts de la Convention sur certaines armes classiques concerne les systèmes d’armes létaux autonomes.
La CCAC (1) a pour but d’interdire ou de limiter l’emploi de certains types particuliers d’armes qui sont réputées infliger des souffrances inutiles ou injustifiables aux combattants ou frapper sans discrimination les civils. A ce titre, les travaux menés en application de la CCAC s’orientent sur les systèmes d’armes létaux autonomes (SALA), encore appelées armes robotisées autonomes (ou LAWS pour lethal autonomous weapons systems).
Un système d’arme létal autonome peut être caractérisé par une capacité à se déplacer librement, à s’adapter à son environnement et d’effectuer le ciblage et le lancement d’effecteur létal, dans une autonomie fonctionnelle complète. Cette caractérisation exclut les systèmes actuels « d’armes automatiques » qui ne disposent pas de la capacité et d’autonomie fonctionnelle et surtout dont le ciblage et le lancement d’effecteur létal sont réalisés par des opérateurs humains.
La réunion des experts doit permettre de dresser une cartographie des développements actuels dans le domaine civil, et des études de cas sur les systèmes autonomes maritimes, aériens et terrestres ainsi que les procédures normalisées d’exploitation et d’interaction homme-machine, ainsi que les développements actuels dans le domaine militaire (2).
Dans l’attente de la publication de ces recommandations, la position de la France mérite d’être commentée en ce qu’elle propose une définition ambitieuse des SALA et refuse toute interdiction préventive de ce type d’armes.
Les documents de préparation de cette réunion transmis par la France démontrent une réelle volonté d’approfondir la réflexion sur le sujet des SALA dans le respect absolu du droit des conflits armés.
La position française consiste tout d’abord à proposer une définition des SALA à la lumière de leurs caractéristiques. Un SALA doit ainsi :
- être un système entièrement autonome ;
- impliquant une totale absence de supervision humaine ;
- dans sa capacité à se déplacer, à s’adapter à son environnement terrestre, maritime ou aérien, à viser et à faire feu avec un effet létal.
Cette définition exclut ipso facto tout système d’arme opéré à distance ou supervisé par l’homme. La France opte ainsi pour une définition impliquant un degré d’autonomie total des SALA (« Human-out-of-the-loop »).
De tels systèmes d’armes, compte tenu de la complexité et de la diversité des environnements, ainsi que de l’incapacité à prévoir l’ensemble des scénarios d’une opération militaire, devraient, selon les documents transmis par la France, posséder des capacités de « self-learning » (notons que la notion d’intelligence artificielle n’est pas utilisée).
Cette définition ambitieuse est relativisée par les avancées du progrès technique qui ne permettent pas, à ce jour, aux SALA d’avoir un « rôle de prise de décision autonome du ciblage et de l’ouverture de feu ». Deux considérations viennent justifier cette position. Tout d’abord, l’imprévisibilité du comportement d’un SALA, confronté à un élément non-modélisé, nuirait à l’utilité et à l’efficacité d’un tel type d’arme. Aussi, l’impossibilité du SALA de modéliser parfaitement son environnement et le comportement des différents acteurs présents sur le champ de bataille pourrait conduire à des réactions portant gravement atteinte au droit des conflits armés (incapacité de distinction entre objectifs militaires et population civile dans un environnement dégradé ou difficulté d’évaluer la proportionnalité d’une attaque, par exemple). La France considère que la notion de « contrôle significatif » dont la définition pourrait être contestée, ne permettrait pas d’aboutir à une base juridique solide.
Les défis juridiques du droit international humanitaire (DIH) porte sur l’article 36 du premier protocole additionnel aux Conventions de Genève du 12 août 1949. L’article 36 oblige les Etats, « dans l’étude, la mise au point, l’acquisition ou l’adoption d’une nouvelle arme, de nouveaux moyens ou d’une nouvelle méthode de guerre, (…) à déterminer si l’emploi en serait interdit, dans certaines circonstances ou en toutes circonstances ». La France précise appliquer cet examen de licéité « dès l’étape dite d’orientation, c’est-à-dire juste après « l’évaluation du besoin ».
Des SALA capables d’intégrer et d’appliquer, en opération, l’ensemble des principes du droit des conflits armés n’existent pas encore. La France n’entend cependant pas fermer la porte à de tels types d’armes précisant que « le seul fait qu’une machine et non pas un être humain sélectionne la cible, prenne la décision d’ouvrir le feu, ou conduise une attaque n’entraîne pas nécessairement une violation du droit international humanitaire ». En effet, ces systèmes pourraient être conçus pour se conformer aux principes généraux du droit des conflits armés. Dans certains cas, l’utilisation des SALA pourrait permettre un meilleur respect du droit international humanitaire en réduisant les risques pour les civils en prenant des décisions de ciblage plus précises.
En cas d’infraction aux règles du droit des conflits armés ou du droit international humanitaire lors de l’utilisation des SALA, la responsabilité du commandement militaire, des décideurs politiques et des industriels pourrait être recherchée. La robotisation du champ de bataille n’a d’ailleurs pas vocation à remplacer l’homme mais à augmenter ses capacités. Elle ne saurait donc évoluer vers un système annihilant toute forme de responsabilité humaine.
Dans le respect de ses engagements internationaux, « la France n’envisagerait de développer ou d’employer des SALA que si ces systèmes démontraient leur parfaite conformité au droit international » et notamment au droit des conflits armés et du droit international humanitaire. La France estime d’ailleurs que l’emploi éventuels de systèmes d’armes létaux autonomes ne doit pas être considérés comme « intrinsèquement en contradiction avec le droit international humanitaire » et que « toute interdiction préventive » des SALA « semble prématurée »
La France, dans une démarche prospective, invite donc ses partenaires à poursuivre la réflexion sur l’emploi des SALA. L’objectif de cette réunion d’experts est de proposer des recommandations pour la 5e conférence d’examen de la CCAC. Le président de la réunion d’experts soumettra un rapport à la 5e conférence d’examen 2016 des Hautes Parties contractantes à la CCAC (3).
Parmi les autres pays ou participants à la réunion, il est possible de relever la position des Etats-Unis, du Canada, du Japon et du Royaume-Uni. A l’inverse de la France, la délégation américaine ne croit pas qu’une définition de la notion de système d’arme létale autonome soit nécessaire à ce stade. Les Etats-Unis souhaiteraient que, lors de la 5e conférence d’examen 2016, s’exprime un accord pour la réalisation d’un document non juridiquement contraignant décrivant le process complet d’examen des systèmes d’armes létaux autonomes, incluant notamment les risques politiques et juridiques et les meilleures pratiques opérationnelles que les Etats pourraient envisager d’utiliser si elles décident de développer des systèmes d’armes létaux autonomes.
Le Canada espère que par le développement d’une compréhension plus profonde, plus nuancée des questions humanitaires soulevées par les lois stratégiques, militaires, la « communauté internationale sera mieux en mesure de saisir les périls et les promesses de cette technologie émergente, et prendre des mesures sage et efficace ». Le Canada considère qu’une interdiction de la technologie des SALA constituerait la meilleure approche à ce stade pour aborder les risques opérationnels, moraux, éthiques, politiques et juridiques.
Le Japon souhaite également une clarification de la définition d’un SALA. Le ministre de la Défense du Japon n’envisage pas le développement de robots avec des humains hors de la boucle (humans out of the loop) qui serait capable de « commettre des meurtres ». Le Royaume-Uni partage également la position du Japon sur son absence d’intention de développer des systèmes qui pourrait être opérer sans aucun contrôle humain et est déterminé à assurer que ces systèmes d’armes restent sous contrôle de l’humain.
D’autres Etats disposant des capacités technologiques pour développer des SALA n’ont pas exprimé de position officielle lors de la réunion, il en est ainsi notamment de l’Allemagne, de la Chine et de la Russie.
Didier Gazagne
François Gorriez
Lexing Cybersécurité – IE- Technologies de sécurité & Défense
(1) Convention sur certaines armes classiques (CCAC).
(2) Lettre de l’Ambassadeur Michael Biontino du 8-2-2016.
(3) Réunion du 11/15-4-2016, Document de travail.