Déclaration

Réunion d’experts sur les systèmes d’armes létales autonomes

Le CICR se félicite de la tenue de cette première réunion du Groupe d'experts gouvernementaux sur les systèmes d'armes létales autonomes (SALA). Alors que les Hautes Parties contractantes à la Convention sur certaines armes classiques entament des discussions plus formelles, il est attendu des États qu'ils identifient et développent un socle de travail commun, notamment fondé sur le large accord existant quant à la nécessité de conserver un contrôle humain sur les systèmes d'armes et sur l'utilisation de la force.

Le CICR estime que les États doivent maintenant s'employer à fixer des limites à l'autonomie des systèmes d'armes, de manière à garantir le respect du droit international et à répondre aux préoccupations éthiques.

Pour déterminer ces limites, le CICR est convaincu de la nécessité de continuer à mettre l'accent sur les obligations et les responsabilités des humains dans les décisions de recourir à la force. Le CICR a donc proposé que les États évaluent le type et le degré de contrôle humain requis lors de l'utilisation des systèmes d'armes autonomes – définis, au sens large, comme étant des armes qui présentent une autonomie dans leurs fonctions essentielles de sélection et d'attaque des cibles – pour assurer leur conformité au droit international et leur acceptabilité au regard des principes de l'humanité et des exigences de la conscience publique.

Du point de vue du droit international humanitaire, il est clair que les règles régissant la conduite des hostilités s'adressent aux personnes qui planifient, décident ou exécutent des attaques. Ces règles – qui sont applicables à toutes les attaques, indépendamment des méthodes ou moyens utilisés – créent des obligations pour les combattants humains, à qui il incombe de les respecter. Ni ces obligations juridiques, ni la responsabilité qui en découle, ne peuvent être transférées à une machine, à un programme informatique ou à un système d'armes.

Le CICR estime que le respect de ces obligations juridiques exige des combattants qu'ils maintiennent un niveau minimum de contrôle humain sur l'utilisation des systèmes d'armes lors d'attaques menées dans un conflit armé.

L'examen de la manière dont un contrôle humain peut être exercé sur les systèmes d'armes autonomes (selon la définition large proposée par le CICR) montre le rôle essentiel joué par certains éléments dans l'exercice d'un contrôle humain visant à garantir le respect du droit. Il s'agit des éléments suivants : prédictibilité ; supervision et capacité d'intervention d'un humain ; enfin, diverses restrictions opérationnelles pesant sur les tâches, les types de cibles et l'environnement opérationnel et imposant des limites dans le temps et dans l'espace.

L'exercice d'un contrôle humain « significatif », « effectif » ou « approprié » exige en outre que l'opérateur ait une connaissance et une compréhension suffisantes du système d'armes et de l'environnement opérationnel, ainsi que de l'interaction entre ces deux éléments.

Ces éléments de contrôle humain sont nécessaires pour pouvoir établir le lien entre, d'une part, les décisions prises par un humain (chef militaire ou opérateur) – qui doivent être conformes aux prescriptions du droit international humanitaire et autres dispositions applicables du droit international – et, d'autre part, les effets d'une attaque spécifique menée au moyen d'un système d'armes donné. La nécessité d'un certain degré de contrôle humain signifie qu'il y aura des limites aux niveaux licites – au regard du droit international humanitaire – de l'autonomie conférée aux systèmes d'armes.

La nécessité d'un contrôle humain fait également apparaître un certain nombre de questions relatives à des aspects techniques – susceptibles d'être sources d'imprédictibilité – de la conception des systèmes d'armes. En particulier, le fait d'introduire dans le processus de ciblage des algorithmes d'apprentissage automatique issus de l'intelligence artificielle soulèverait des préoccupations majeures d'ordre juridique, dans la mesure où le fonctionnement et les effets des systèmes d'armes seraient alors intrinsèquement imprédictibles.

Ces derniers mois, le CICR a poursuivi sous l'angle de l'éthique l'examen de la question des systèmes d'armes autonomes. Il a organisé une petite table ronde d'experts en août 2017 et il a tiré les enseignements des réunions d'experts tenues avec les États en 2014 et 2016. De fait, les principes de l'humanité et les exigences de la conscience publique fournissent des orientations d'ordre moral à ces discussions, et appuient la position du CICR appelant à assigner des limites à l'autonomie des systèmes d'armes. De fait, parmi les questions éthiques que soulèvent les systèmes d'armes autonomes, les plus importantes sont peut-être celles qui transcendent à la fois le contexte de leur déploiement – en situation de conflit armé comme en temps de paix – et la technologie – simple ou sophistiquée – qui est employée. La disparition de l'agence et de la responsabilité humaines dans les décisions de tuer et de détruire figure au cœur de ces préoccupations.

La responsabilité morale des décisions de tuer et de détruire ne pouvant pas être déléguée à des machines, un contrôle humain significatif, effectif ou approprié – du point de vue de l'éthique – constituerait le type et le degré de contrôle requis pour que l'agence et la responsabilité humaines restent présentes dans ces décisions.

Le fait de doter les systèmes d'armes d'une autonomie croissante pourrait conduire au point où les humains seraient si éloignés, dans le temps et dans l'espace, des actes permettant la sélection et l'attaque des cibles que des processus contrôlés par ordinateur viendraient effectivement se substituer à un processus décisionnel humain. Les décisions de vie ou de mort seraient alors prises non par des humains, mais par des machines. Sur le plan de l'éthique, une telle perspective soulève de profondes interrogations – quant au rôle et à la responsabilité des humains dans l'utilisation de la force et la suppression de vies humaines – qui vont bien au-delà des questions relatives au respect du droit international humanitaire. En ce qui a trait aux exigences de la conscience publique, l'idée d'un système d'armes qui placerait l'utilisation de la force hors de tout contrôle humain suscite un profond sentiment de malaise.

En ayant à l'esprit ces questions juridiques et éthiques, et en étant conscient de la rapide évolution des technologies en matière de robotique et d'intelligence artificielle, ainsi que de son application actuelle dans les systèmes d'armes, le CICR demande instamment à tous les États représentés dans ce Groupe d'experts gouvernementaux de travailler à l'établissement de limites à l'autonomie des systèmes d'armes, de sorte que les humains conservent l'entière responsabilité des décisions de recourir à la force.

Nous attendons avec intérêt l'occasion de préciser nos vues au cours des sessions thématiques.