• Envoyer
  • Imprimer

Armes autonomes : les États doivent résoudre des problèmes éthiques et humanitaires majeurs

02-09-2013 FAQ

Les avancées technologiques concernant les armes font que les décisions de tuer sur le champ de bataille pourraient être prises à l'avenir par des machines fonctionnant sans intervention humaine. Nous examinerons ci-après les incidences qu’un changement si profond pourrait avoir sur la façon de mener la guerre, et la mise en garde contre l'emploi de ces armes s’il n’est guère possible de garantir le respect du droit international humanitaire.

Comment les armes autonomes pourraient-elles faire une distinction entre un combattant et un civil ? Leur technologie sophistiquée les rendrait-elles plus aptes que des soldats à identifier des cibles militaires ? Et qui serait responsable en cas de violation du droit international humanitaire ? Vu le grand nombre de questions non résolues liées à l'utilisation des armes autonomes, le CICR appelle les États à évaluer le coût en vies humaines et les incidences que ces nouvelles technologies de guerre pourraient avoir sur le droit international humanitaire.

Qu’est-ce qu’une arme autonome ?

Les armes autonomes (également connues sous le nom de robots létaux autonomes (RLA) ou « robots tueurs ») chercheraient, sélectionneraient et attaqueraient des cibles sans intervention d’un opérateur humain en recourant à la force meurtrière. Contrairement aux systèmes de défense hautement automatisés actuellement utilisés et qui sont conçus par exemple pour abattre des missiles ou des obus d'artillerie, les armes autonomes opéreraient en dehors d’un cadre spatial et temporel fortement limité. Elles pourraient apprendre à adapter leur fonctionnement en fonction des circonstances changeantes de l'environnement dans lequel elles sont déployées.

De telles armes n'ont pas encore été déployées sur un champ de bataille. Néanmoins, ce secteur suscite un grand intérêt et bénéficie d’un financement pour effectuer des travaux de recherche. Ces armes risquent donc peut-être de devenir un jour une composante de la guerre.

Des appels ont été lancés en faveur d’un moratoire ou d’une interdiction de l’élaboration, de la production et de l’utilisation des armes autonomes. Le CICR soutient-t-il ces appels ?

Pour l’heure, le CICR ne s’associe pas à ces appels. Toutefois, l’institution prie instamment les États d’examiner les questions fondamentales sur les plans juridique, éthique et sociétal concernant l’emploi d’armes autonomes avant qu’elles ne soient développées ou déployées dans un conflit armé, ainsi que le prescrit le droit international humanitaire: Le CICR est préoccupé par le coût potentiel en vies humaines des systèmes d’armes autonomes et s’interroge sur la mesure dans laquelle leur utilisation peut être conforme aux dispositions du droit international humanitaire.

Quelle est la position du droit international humanitaire sur les armes autonomes ?

Il n'existe aucune règle spécifique sur les armes autonomes. Cependant, le droit dispose que dans la mise au point ou l’acquisition d'une nouvelle arme, de nouveaux moyens ou d’une nouvelle méthodes de guerre, les États ont l’obligation de déterminer si l'emploi en serait interdit, dans certains circonstances ou en toutes circonstances, par le droit international. En d'autres termes, les règles de longue date du droit international humanitaire, en particulier les principes de distinction, de proportionnalité et de précaution dans l'attaque, s'appliquent à l’ensemble des armes et développements technologiques nouveaux au cours d’un conflit armé, aux armes autonomes y compris.

Le défi majeur que les États doivent relever est de s'assurer que les armes autonomes sont capables de se conformer à tous ces principes. Par exemple, il est à ce jour difficile de savoir comment ces armes pourraient distinguer un civil d’un combattant, ainsi que l’exige le principe de distinction. En effet, une telle arme devrait être en mesure de distinguer non seulement les combattants des civils, mais aussi, par exemple, les combattants actifs de ceux qui sont hors combat, et les civils prenant directement part aux hostilités des civils armés (forces de l’ordre ou chasseurs), qui restent protégés contre les attaques directes. Le principe de proportionnalité exige que les dommages que les armes autonomes peuvent s’attendre à causer à des civils soient, avant une attaque contre une cible militaire, mis en balance avec les avantages militaires que l’on pense retirer de l’opération. Enfin, une arme autonome devrait être capable d'appliquer les précautions nécessaires dans l'attaque afin de minimiser les pertes civiles.

Un drone est-il un type d’arme autonome ?

Les armes autonomes opéreraient sans supervision humaine, contrairement à l'avion piloté à distance (également connu sous le nom de drone) en usage aujourd'hui et qui nécessite des opérateurs humains pour sélectionner les cibles, activer, diriger et déclencher les armes à leur bord.

Quels peuvent être les avantages et risques potentiels liés à l’emploi d’armes autonomes ?

Les partisans des armes autonomes affirment que les capteurs sophistiqués et l'intelligence artificielle au service de ces systèmes rendrait ces armes plus susceptibles qu’un soldat en chair et en os d’identifier correctement les objectifs militaires et d’éviter des pertes civiles involontaires. Ils font aussi valoir que les systèmes d'armes autonomes ne seraient pas influencés par des émotions négatives (par exemple, peur, colère et désir de vengeance). Par contre, une arme autonome n’aurait pas de qualités humaines comme la compassion, et ne serait pas doté du discernement et de l’expérience humaines nécessaires pour évaluer correctement une véritable tentative de se rendre, ou l'avantage militaire concret et direct escompté d'une attaque donnée. En outre, le déploiement de telles armes traduirait un changement de paradigme et une modification qualitative majeure dans la conduite des hostilités. Enfin, la question est de savoir si les exigences de la conscience publique permettraient que les machines puissent avoir un pouvoir de vie et de mort et appliquent la force meurtrière sans contrôle humain.

Qui est responsable en cas de violation du droit international humanitaire résultant de l’emploi d’une arme autonome ?

En tant que machine, une arme autonome ne pourrait pas être tenue pour responsable d'une violation du droit international humanitaire. La question se pose alors de savoir qui serait juridiquement responsable dans le cas où l'utilisation d'une arme autonome entraînerait un crime de guerre : le programmeur, le fabricant ou bien le chef militaire qui déploie l'arme ? Si la responsabilité ne saurait être déterminée comme le prescrit le droit international humanitaire, le déploiement de ces systèmes est-il légal ou éthique ?

De nombreuses questions restent sans réponse, le CICR appelle donc les États à veiller à ce que les armes autonomes ne soient pas utilisées s’il n’est guère possible de garantir le respect du droit international humanitaire.