Google News

Por Guilherme de Araujo Grigoli

No mês de maio o presidente Donald Trump assinou o National Defense Authorization Act (NDAA, ou Lei de Autorização de Defesa Nacional), criando um novo ramo das Forças Armadas dos EUA, a Força Espacial (USSF, 2020). A militarização do espaço passa a ser inevitável e com ela novas armas e formas de conduzir a guerra surgem no cenário mundial.

Este novo meio de praticar a guerra vem se somar a outras tecnologias tais como: os ataques cibernéticos, os Sistemas Remotamente Pilotados Armados (aí inclusas as plataformas aéreas, terrestres e navais) e as unidades de armas autônomas, as chamadas inteligências artificiais (IA). Estes novos armamentos se destacam não só pela letalidade dos danos que podem causar; mas também pelo seu uso e efeitos, que dependendo das condições, não encontram regulamentação jurídica na legislação internacional seja no Direito Internacional dos Conflitos Armados, seja no Direito Internacional dos Direitos Humanos.

Nesse sentido, o que torna estes armamentos e tecnologias disruptivos em relação aos seus impactos legais é, sem dúvida, a ausência dos elementos comuns aos conflitos que travamos até os dias atuais, entre eles podemos citar a ausência do território como base para pensar a territorialidade da norma, a ausência da vontade manifesta direta do ser humano, entre outros.

Ao analisar a questão legal, poderíamos apontar a falta de regulamentação como óbice para pensarmos os impactos jurídicos e de responsabilidade; entretanto, esta questão poderia, por circunstância, ser resolvida por meio de novos protocolos internacional, acordo de cooperação ou tratado. Todavia, neste caso, não se resume a regulamentação e sim as condições que acercam estas durante seu emprego fazendo com que tenhamos que pensar o direito não no nível normativo (leis e tratados) e sim num patamar holístico dos dilemas éticos.

Neste prisma, estas novas tecnologias têm pontos tangentes que se tornam imprescindíveis ao debate moral sobre seu emprego. Ademais, elas afastam o ser humano do campo de batalha, mecanizam os atos de guerra, minimizam a percepção do impacto e, por vezes, potencializam as ações militares, sem que a elas sejam atribuídos faces que respondam pela responsabilidade legal.

Destarte, mesmo que façamos algo muito comum à discussão sobre responsabilidade durante os conflitos, focarmos nossa análise na responsabilidade do Estado que as opera, ainda assim caminharemos num espectro nebuloso, haja vista que um dos componentes extremamente presente nessas tecnologias, é o caráter anônimo das ações e a baixíssima rastreabilidade de suas origens.

Com efeito, ao pensarmos a utilização dos Sistemas Remotamente Pilotados Armados ainda é possível alegar que os pilotos destas plataformas mesmo não presentes ainda devem se sujeitar as regras do Direito Internacional dos Conflitos Armados Além disso, mesmo que se alterem os métodos, as responsabilidades pelos efeitos colaterais dos ataques ou por erro de execução ainda teriam responsáveis. Todavia, permanecem questões fundamentais: Como indicar esta responsabilidade num contexto de conflito em massa com o emprego de diversos vetores nãotripulados? A precisão da máquina pode ser utilizada como escusa ao operador?

Outrossim, em alguns casos, esta questão é ainda mais profunda. As armas autônomas se baseiam em protocolos logarítmicos que evoluem e aprendem com suas falhas alterando seu próprio código para melhorar a performance do resultado pretendido. O que tratamos aqui é da real impossibilidade de atribuir a um agente humano a responsabilidade pela violência depreendida em combate. Mesmo que pensemos no Estado como dono dos meios autônomos e da tecnologia, este ainda pode alegar que a decisão foi executada pelo protocolo analítico da máquina, sem que o mesmo pudesse interferir. Como responsabilizar os atos executados pela IA, se estes fugirem ao controle? Até onde vai o debate da liberdade que a máquina tem para decidir.

Outro ponto a ser discutido no que se refere as armas autônomas está centrado nas ações de autodefesa que a IA realiza automaticamente para proteger aquele sistema. Os impactos advindos de respostas de autoproteção cujos efeitos colaterais atinjam vidas humanas inocentes implicam em responsabilidade criminal para o Estado? Em existindo, seria ela direta ou indireta? Sobre quem a responsabilidade recai sobre o Estado, que assume o risco de empregar a tecnologia autônoma ou empresa que desenvolve a IA (com base no fato de que estamos discutindo software)?(CICV, 2013).

Em relação a cibernética, a dificuldade de rastrear a origem pode criar uma insegurança jurídica cujos protocolos existentes serão inócuos pois um ataque cibernético utiliza da ação diversionária de cruzar vários servidores em países diferentes para mascarar sua origem. Este modus operandi leva qualquer investigação pela origem se sujeitar a legislações nacionais, a países não signatários de protocolos de intenções e, por conseguinte a ineficiência de responsabilizar os culpados pelos danos cometidos contra as populações civis.

Neste mesmo contexto, o uso do espaço cria um novo ambiente que requer uma análise crítica em sua utilização. Se num primeiro momento a acessibilidade ao mesmo ainda, por questões de orçamento e tecnologia, é restrita a um pequeno universo de nações; o futuro não tardará a trazer outros atores ao cenário e democratizar seu acesso. Até lá caberá ao sistema internacional discutir os limites jurídicos e as implicações de conflitos travados a largo do conceito de “território” da Geografia. Será preciso repensar o próprio conceito de “Estado” e, por consequência, as responsabilidades que recaem sobre este, no que tange, a proteção de seus nacionais e dos civis envolvidos nos conflitos.

No contexto da segurança internacional, o Grupo de Especialistas Governamentais das Nações Unidas sobre os Avanços no Campo da Informação e das Telecomunicações confirmaram que “o direito internacional e, em particular, a carta das Nações Unidas é aplicável…” a questão cibernética e destacaram que se aplicam “os princípios jurídicos internacionais estabelecidos, com inclusão, quando proceder, dos princípios de humanidade, necessidade, proporcionalidade e distinção” (VALLADARES, 2016). Esta interpretação pode ser considerada uma ampliação do entendimento que Corte Internacional de Justiça deu a aplicação do DICA“ a todas as formas de guerra e a todos os tipos de armas”, inclusive “as do futuro” quando da Opinião Consultiva sobre a Legalidade da Ameaça ou Uso de Armas Nucleares em 1996 (CIJ, 1996).

A despeito das tecnologias já existentes e das futuras, que indubitavelmente, modificarão a maneira como combate será conduzido, é preciso que o debate sobre os efeitos destas sobre a população civil, bem como dos aspectos legais que revestem internamente ou internacionalmente às ações militares seja amplamente discutido para que se estabeleça um escopo normativo ou, pelo menos, um entendimento da aplicabilidade dos princípios internacionais do DICA e o DIDH.

Por fim, mesmo que a história tenha demonstrado que o sofrimento civil foi o motivador das normas legais internacionais e não o contrário, já que pelo princípio Nullum crimen nulla poena sine praevia lege1, dificilmente pensaremos em estabelecer responsabilidades antes do fato considerado criminoso estar efetivamente disposto em norma internacional aceita e recepcionada. Os Estados devem, quando possível, proativamente trazer ao debate estas questões ampliando sua discussão para todos os setores da sociedade e se preparando para o desconhecido militarmente e juridicamente.

 

GRIGOLI, Guilherme de Araujo. As tecnologias disruptivas e a aplicação dos Protocolos Legais perante as armas do futuro. Observatório Militar da Praia Vermelha. ECEME: Rio de Janeiro, 2021

 

Referência:

  1. CICV. Armas autônomas: os Estados devem discutir os grandes desafios éticos e humanitários. 2013. Disponível em: https://www.icrc.org/pt/content/armas-autonomas-os-estados-devem-discutir-os-grandes-desafios-eticos-e-humanitarios. Acesso em: 16 jul. 2020
  2. CIJ. Legality of the threat or use of Nuclear Weapons. [s.l: s.n.].
  3. USSF. About Space Force. 2020. Disponível em: https://www.spaceforce.mil/About-Us/About-Space-Force. Acesso em: 16 jul. 2020.
  4. VALLADARES, Gabriel Pablo. O direito internacional humanitário é aplicável às novas tecnologias de guerra? – Guia de fontes em ajuda humanitária. 2016. Disponível em: https://guiadefontes.msf.org.br/o-direito-internacional-humanitario-e-aplicavel-as-novas-tecnologias-de-guerra/. Acesso em: 16 jul. 2

Fonte: OMPV

Participe do nosso grupo e receba as principais notícias do Defesa em Foco na palma da sua mão.

blank

Ao entrar você está ciente e de acordo com os termos de uso e privacidade do WhatsApp.



Assine nossa Newsletter


Receba todo final de tarde as últimas notícias do Defesa em Foco em seu e-mail, é de graça!

DEIXE UMA RESPOSTA

Por favor insira seu comentário!
Digite seu nome aqui