A utilização de armas autônomas pode parecer um tema recente, mas sua aplicação em operações militares já é uma realidade em diversos países, incluindo Estados Unidos, Rússia, China e Israel. Essas nações utilizam armas autônomas para fins como reconhecimento, vigilância e, em alguns casos, para seleção e ataque de alvos, o que vem despertando atenção e preocupação em organizações internacionais. Nos últimos anos, as Nações Unidas e o Comitê Internacional da Cruz Vermelha (CICV) têm acompanhado o desenvolvimento dessa tecnologia, destacando os potenciais riscos que ela pode representar para a sociedade.
Embora muitas vezes associadas a cenários de ficção científica, as armas autônomas possuem semelhanças com tecnologias já presentes no campo militar. A diferença central está na capacidade dessas armas de operar com inteligência artificial, proporcionando uma vantagem estratégica aos exércitos que as empregam. A tecnologia permite a esses sistemas maior autonomia, como no reconhecimento de padrões ou na identificação de ameaças, reduzindo a necessidade de intervenção humana.
Um exemplo disso é o uso de drones autônomos por forças militares em várias partes do mundo. A Força de Defesa de Israel (IDF, na sigla em inglês), por exemplo, reconhece o uso de armas autônomas para coleta de informações e seleção de alvos, ainda que a decisão final de ataque seja tomada por operadores humanos. O ex-chefe do Estado-Maior da IDF, Aviv Kochavi, destacou a capacidade dessas armas ao afirmar que a tecnologia identificou 100 alvos em um único dia, dos quais 50% foram atacados. Outros países, como os Estados Unidos, empregam drones autônomos para operações de reconhecimento, enquanto a Rússia e a China avançam no desenvolvimento de sistemas similares com capacidades de ataque autônomo.
Como funcionam as armas autônomas?
Considera-se um sistema de armas autônomas como aquele que pode selecionar e aplicar força a alvos sem a necessidade de controle humano direto. Outras capacidades autônomas podem incluir navegação, rastreamento de rotas, controle de voo, vigilância e reconhecimento.
Conforme mencionado, essas armas utilizam inteligência artificial em sua tecnologia, operando com base em algoritmos previamente treinados para tomar decisões. Podemos imaginar, por exemplo, um drone militar operado manualmente por uma pessoa que monitora uma área específica. Ao identificar uma ameaça, o operador decide se deve ou não disparar. Nesse caso, apesar de se valer de uma tecnologia avançada, a decisão final é humana. No entanto, uma arma autônoma reduz essa intervenção direta, pois é programada para reconhecer e atacar alvos de forma independente, utilizando tecnologias como o reconhecimento facial.
De acordo com o Future of Life Institute (FLI), diversas armas autônomas já estão em operação, algumas delas com capacidades impressionantes que ilustram o avanço dessa tecnologia. Aqui estão alguns exemplos:
Kratos UTAP-22 Mako
(Estados Unidos da América)
Este veículo aéreo não tripulado é capaz de realizar missões de combate, inteligência e reconhecimento de maneira autônoma, sem intervenção humana direta. Ele pode operar em conjunto com aeronaves tripuladas ou realizar missões independentes.
Elbit LANIUS UAV
(Israel)
Um drone equipado com inteligência artificial avançada, capaz de operar em ambientes urbanos complexos, identificando e atacando alvos de forma autônoma. Ele é projetado para atuar em missões de combate de curta duração, com alta precisão.
Hanwha Arion-SMET
(Coreia do Sul)
Veículo terrestre autônomo desenvolvido para realizar tarefas de logística e de combate. Equipado com inteligência artificial, o Arion-SMET pode transportar suprimentos, detectar ameaças e realizar ataques sem intervenção humana.
Kratos Valkyrie XQ-58A
(Estados Unidos da América)
Aeronave não tripulada de combate que opera em conjunto com caças tripulados, sendo capaz de realizar missões de ataque e reconhecimento de maneira autônoma. Seu design avançado e sua autonomia o tornam uma das plataformas mais promissoras para operações aéreas.
Os riscos e desafios éticos das armas autônomas
Agora que apresentamos os exemplos de armas autônomas, é crucial abordar os riscos e desafios que acompanham o uso dessa tecnologia. Esses riscos não apenas desafiam normas legais e éticas, mas também ameaçam a segurança global.
Um dos maiores problemas é o chamado accountability gap (lacuna de responsabilidade). Quando uma arma autônoma mata mais pessoas do que o previsto ou atinge alvos incorretos, como atribuir a responsabilidade por possíveis crimes de guerra? Quem deve ser julgado: o programador, o comandante militar ou o próprio sistema? Essa indefinição cria um vazio na aplicação da justiça, algo que já preocupa juristas e especialistas em direito internacional.
Outro risco é a instabilidade global. Essas armas são frequentemente treinadas e podem interagir com sistemas inimigos de maneira imprevisível, levando a escaladas não intencionais, conhecidas como “guerras relâmpago”. Em um cenário hipotético, um movimento inesperado de um sistema autônomo de um oponente poderia desencadear uma resposta automática, sem a possibilidade de intervenção humana, aumentando o risco de confrontos não intencionais.
No campo ético, a questão das máquinas tomarem decisões de vida ou morte suscita debates consideráveis, com muitas vozes argumentando contra essa possibilidade. A ausência de controle humano direto em situações que envolvem o uso letal da força levanta questões sobre a adequação das normas existentes e a necessidade de regulamentações que atendam a esses desafios emergentes.
As vulnerabilidades cibernéticas também representam um risco significativo. Armas autônomas são especialmente suscetíveis a ataques cibernéticos, o que permite que hackers comprometam e manipulem operações militares inteiras. Em um cenário hipotético, uma arma autônoma poderia ser hackeada e direcionada contra civis ou usada para sabotar as próprias forças que a operam.
Por fim, há a questão da imprevisibilidade. Como essas armas operam com base em estímulos do ambiente, seu comportamento pode se tornar incontrolável. Isso significa que, mesmo em um cenário onde todos os cuidados foram tomados, um fator externo inesperado pode gerar uma reação imprevisível, algo que vai além do controle humano.
Diante dos riscos que as armas autônomas representam, a comunidade internacional tem começado a se mobilizar para estabelecer um controle mais rigoroso sobre o seu uso. Em outubro de 2023, o Secretário-Geral das Nações Unidas e o Presidente do Comitê Internacional da Cruz Vermelha fizeram um apelo urgente aos Estados para que negociem um tratado juridicamente vinculante sobre armas autônomas até 2026.
A proposta sugerida adota uma abordagem em duas camadas, sendo a primeira focada na proibição de sistemas que sejam considerados inaceitáveis do ponto de vista legal ou ético — como aqueles que operam sem controle humano significativo ou que têm pessoas como alvos diretos. A segunda camada visaria regular os demais sistemas, impondo limites temporais, espaciais e geográficos para seu uso, buscando garantir que, mesmo em cenários de conflito, existam restrições claras sobre o alcance e a aplicação dessas tecnologias.
Atualmente, 120 países apoiam a criação de um tratado juridicamente vinculante sobre armas autônomas. Em contrapartida, um pequeno grupo de Estados permanece contrário a essa regulação. Entre os opositores estão países como Estados Unidos, Rússia, Israel, Índia e Reino Unido, que apresentam justificativas variadas para sua posição.
A Índia, por exemplo, argumenta que um instrumento legal sobre o tema seria prematuro e poderia ampliar a disparidade tecnológica entre os Estados. Além disso, o país já investe no desenvolvimento de armas autônomas por meio de empresas como a Adani Defense and Aerospace. Israel, por sua vez, destaca as vantagens operacionais das armas autônomas e considera que o Direito Internacional Humanitário (DIH) atual já oferece uma base jurídica adequada para seu uso, ainda que o DIH tenha sido desenvolvido em um contexto anterior ao surgimento dessas novas tecnologias. Paralelamente, Israel continua a avançar em sua produção e implementação desses sistemas.
Os Estados Unidos, por sua parte, defendem que o DIH, aliado aos esforços nacionais de aplicação, é suficiente para enfrentar os desafios que essas tecnologias representam. O país também investe em iniciativas como o programa Replicator, com o objetivo de desenvolver e implantar rapidamente milhares de sistemas autônomos em diversos
Propostas para o controle internacional de armas autônomas
O Comitê Internacional da Cruz Vermelha (CICV) adota uma postura firme em relação às armas autônomas, defendendo a necessidade urgente de regulamentação internacional. O CICV ressalta que a comunidade global já conseguiu proibir categorias de armamento no passado, como armas biológicas e minas terrestres, e que um esforço semelhante é necessário para as armas autônomas.
No entanto, o Comitê não recomenda a proibição de todas as aplicações militares de inteligência artificial (IA), mas apenas de tipos específicos de armas autônomas que apresentam sérios riscos éticos e humanitários. O CICV reconhece que muitas aplicações militares de IA já em uso, como os sistemas de defesa antimísseis automatizados, não levantam as mesmas preocupações.
Os pilares fundamentais propostos pela Cruz Vermelha para regulamentar as armas autônomas são:
● Proibição de alvos humanos: armas autônomas que são projetadas ou usadas para atacar humanos devem ser proibidas;
● Restrição à imprevisibilidade: armas com um alto grau de comportamento imprevisível devem ser proibidas, dada a incapacidade de prever como irão interagir em situações reais de combate;
● Controle humano: outros tipos de armas autônomas devem ser regulamentados, exigindo que haja controle humano significativo sobre o uso da força.
Recentemente, foi firmado um acordo global para regulamentar o uso de Inteligência Artificial (IA), representando um avanço na proteção dos direitos humanos. Esse pacto surge como resposta ao relatório da ONU intitulado “Governing AI for Humanity”, que destacou os riscos associados à IA e tem como objetivo combater a desinformação, prevenir abusos de algoritmos discriminatórios e promover a transparência nas plataformas digitais.
Na página 29, o documento inclui um gráfico que ilustra o nível de preocupação dos especialistas em relação ao uso da IA em diferentes áreas, incluindo conflitos armados. A aplicação da IA por atores estatais em contextos de conflito foi destacada como motivo de grande preocupação, com 46 especialistas atribuindo nota 5 (muito preocupados) e 29 especialistas atribuindo nota 4 (preocupados). Além disso, a possibilidade de ações autônomas não intencionais dos sistemas de IA também gerou apreensão significativa, com 16 especialistas avaliando essa questão com nota 5 e 26 com nota 4.
Estamos em um momento crucial na evolução dos conflitos modernos, em que a introdução de armas autônomas promete transformar profundamente a dinâmica das guerras, de formas imprevisíveis e potencialmente devastadoras. A vigilância e o monitoramento do uso dessas tecnologias são fundamentais, assim como a necessidade de ações regulatórias mais assertivas, conforme enfatizado pela presidente do Comitê Internacional da Cruz Vermelha (CICV), Mirjana Spoljaric. Ela destacou que a prioridade humanitária deve prevalecer, reforçando a urgência de discutir proibições e regulamentações adequadas para esses sistemas.
O Direito Internacional Humanitário, projetado para mitigar os horrores da guerra e proteger civis, enfrenta agora desafios significativos com a ascensão de armas autônomas com capacidades destrutivas inéditas. À medida que esses sistemas se tornam mais independentes em suas operações, aumenta a dificuldade em responsabilizar seus operadores, criando uma lacuna regulatória que requer atenção imediata. Essa lacuna decorre do fato de que o DIH foi desenvolvido em um contexto onde o controle humano direto era assumido, o que levanta questões sobre a aplicabilidade e a eficácia das normas atuais diante de sistemas autônomos.
Dica cultural
A dica cultural de hoje é um curta-metragem de ficção científica chamado "Slaughterbots" (2017). O filme explora as implicações éticas e sociais do uso de drones autônomos armados, destacando o potencial de desumanização e os riscos associados à automação da violência. A intenção é levar o espectador a refletir sobre as consequências de permitir que máquinas tomem decisões de vida ou morte. Está disponível no Youtube e pode ser acessado clicando aqui.
Comments