Sistemas de armas autônomas - perguntas e respostas

12 novembro 2014

Os avanços tecnológicos dos armamentos significam que as decisões que envolvem letalidade poderiam ser tomadas no futuro por máquinas operadas sem intervenção humana. No presente documento, analisamos as implicações em potencial de uma mudança tão profunda na maneira em que as guerras seriam travadas e as precauções contra o uso dessas armas, a menos que o respeito pelo Direito Internacional Humanitário possa ser garantido.

Que são armas autônomas?

Armas autônomas (também conhecidas como robôs autônomos letais ou “robôs assassinos”) serviriam para buscar, identificar e atacar alvos, inclusive seres humanos, empregando força letal sem nenhuma intervenção de um operador humano. Diferentemente dos sistemas de defesa altamente automatizados usados hoje em dia, que são projetados, por exemplo, para derrubar mísseis ou bombas de artilharia entrantes, as armas autônomas seriam operadas sem as limitações estritamente rígidas em termos espaciais e temporais. Poderiam aprender a adaptar seu funcionamento para responder de acordo com as mudanças nas circunstâncias do meio em que são empregadas.
As armas desse tipo ainda não foram empregadas no campo de batalha. Entretanto, esta área atrai interesse e fundos para pesquisa consideráveis, sendo provável que sejam uma característica da guerra no futuro.
 

Há solicitações para suspensão ou banimento no desenvolvimento, produção e uso das armas autônomas. O CICV apoia essas iniciativas?

O CICV por enquanto não se une a essas solicitações. Contudo, insta os Estados a considerar as questões legais, éticas e sociais que são fundamentais em relação a essas armas antes que elas sejam desenvolvidas ou empregadas em conflitos armados, como determinado pelo Direito Internacional Humanitário (DIH). A organização preocupa-se com o custo humano em potencial dos sistemas de armamento autônomo e que sejam empregados de acordo com o DIH.
 

O que o DIH determina em relação às armas autônomas?

Não existe nenhuma norma específica sobre as armas autônomas. No entanto, o direito estipula que os Estados devem determinar se o uso de qualquer arma, meios ou métodos de guerra novos, que desenvolvam ou adquiram, seja proibido ou não pelo direito internacional em algumas ou todas as circunstâncias. Ou seja, as normas de longa data do Direito Internacional Humanitário, em especial as relativas à distinção, proporcionalidade e precaução no ataque, aplicam-se a todas as novas armas e avanços tecnológicos da guerra, inclusive as armas autônomas.
 

O principal desafio dos Estados é assegurar que as armas autônomas sejam capazes de cumprir com todas essas normas. Atualmente, não está claro, por exemplo, como essas armas poderiam discriminar entre um civil e um combatente como determina o princípio de distinção. De fato, uma arma desse tipo não teria capacidade para distinguir entre combatentes e civis nem entre combatentes ativos e os fora de combate, por exemplo. Ou entre os civis que participam ativamente das hostilidades e os civis armados tais como os responsáveis pela aplicação da lei ou caçadores, que são protegidos contra os ataques diretos. Uma arma autônoma também teria que cumprir com a proporcionalidade que requer que os danos civis incidentais esperados de um ataque a um alvo militar não sejam excessivos em relação à vantagem militar concreta e direta que se prevê. Por fim, uma arma autônoma teria que ser capaz de aplicar as precauções necessárias durante um ataque para minimizar as vítimas civis.
 

São os drones um tipo de arma autônoma?

As armas autônomas operariam sem supervisão humana, em contraste com os aviões pilotados a distância (também conhecidos como drones), empregados atualmente, que requerem operadores humanos para selecionar alvos e ativar, dirigir e disparar as armas que carregam.
 

Quais poderiam ser os benefícios e riscos em potencial do uso de armas autônomas?

Os defensores das armas autônomas argumentam que os sensores sofisticados e a inteligência artificial empregada por estes sistemas fazem com que seja mais provável que identifiquem corretamente os objetivos militares e evitem os danos civis não intencionais. Também afirmam que os sistemas de armas autônomas não seriam influenciados por emoções humanas negativas como o medo,a raiva ou o desejo de vingança. Por outro lado, uma arma autônoma não possuiria emoções humanas positivas como compaixão,além da capacidade de julgar e a experiência, inerentes ao ser humano, necessárias para avaliar corretamente uma tentativa genuína de rendição ou a vantagem militar concreta e direta que se prevê de um determinado ataque. Além disso, o emprego dessas armas refletiria uma mudança de paradigma e uma grande alteração na condução das hostilidades. Em última instância, trata-se de saber se os ditames da consciência pública permitiriam que máquinas tomassem decisões sobre a vida e a morte e aplicassem força letal sem controle humano.
 

Quem seria responsável no caso de o uso de armas autônomas resultar em uma violação ao Direito Internacional Humanitário?

Por ser uma máquina, uma arma autônoma não poderia ser feita responsável por uma violação ao Direito Internacional Humanitário. Isso traz o questionamento de quem seria legalmente responsável no caso de o uso das armas autônomas resultar em um crime de guerra: o programador, o fabricante ou o comandante que empregou a arma? Se a responsabilidade não puder ser determinada como exigido pelo Direito Internacional Humanitário, é legal ou ético empregar este tipo de sistemas?
 

Como  muitas perguntas estão sem resposta, o CICV faz um apelo a todos os Estados para que se assegurem que as armas autônomas não sejam empregadas se o cumprimento do Direito Internacional Humanitário não puder ser garantido.

Receba o boletim do CICV