É provável que não demore muito para que drones utilizados para fins letais se tornem comuns em áreas de conflito ao redor do planeta. É o que aponta uma reportagem do The New York Times.
A questão tem gerado uma série de discussões sobre a necessidade de regulamentar o uso desses equipamentos em determinadas situações.
A própria ONU já manifestou preocupação acerca do tema.
Uma delas provoca reflexões em torno da possibilidade dar a programas de inteligência artificial (IA) a capacidade de decidir entre a vida e a morte de pessoas.
Segundo a matéria do NYT, em algum momento a inteligência artificial pode permitir que sistemas de armas façam suas próprias escolhas sobre quais alvos atacar.
As "armas autônomas letais", como estão sendo chamadas, têm recebido um olhar atento de especialistas preocupados.
Apesar disso, armas autônomas não são uma novidade. Minas terrestres, que disparam automaticamente quando alguém ou algo passa sobre elas, foram usadas já no século 19 durante a Guerra Civil nos Estados Unidos.
Apesar de terem sido usadas muito antes da ideia de IA surgir, essas armas são relevantes para as discussões atuais porque funcionam sem a necessidade de intervenção humana e sem distinguir entre alvos pretendidos e vítimas não intencionais.
A partir do final dos anos 1970, os Estados Unidos começaram a ampliar o conceito de armas automatizadas com a criação da Mina Antissubmarino Captor.
Essa mina podia ser lançada de um avião ou navio, fixando-se no fundo do oceano e permanecendo lá até explodir automaticamente quando os sensores detectassem a presença do inimigo.
Nos anos 1980, muitos navios da Marinha passaram a depender do sistema de armas AEGIS, que usa um radar potente para localizar e seguir mísseis inimigos.
Quando está no modo automático, esse sistema é capaz de lançar mísseis defensivos sem a necessidade de intervenção humana.
Outra tecnologia parecida veio com o Míssil Ar-Ar de Médio Alcance Avançado AIM-120. Ele possui um buscador de radar que aprimora a trajetória do míssil enquanto tenta neutralizar aeronaves inimigas.
Segundo escreveu Paul Scharre, ex-oficial de alto escalão do Pentágono e autor do livro "Exército de Ninguém", essas munições têm um certo grau de "autonomia limitada".
Mais recentemente, a guerra na Ucrânia popularizou o uso de um tipo de armamento automatizado chamado munições de espera.
Embora tenha ficado famoso agora, esses dispositivos existem desde pelo menos 1989.
Na época, um militar israelense introduziu o Harpy, um drone que conseguia permanecer no ar por cerca de duas horas, procurando por sistemas de radar inimigos e atacando-os.
Empresas militares dos Estados Unidos, como a AeroVironment, comercializaram recentemente munições de espera semelhantes que contêm uma carga explosiva.
O Switchblade 600, nome dado a essa unidade, voa até localizar um tanque ou alvo e lança uma carga explosiva antitanque. No entanto, atualmente, ainda é necessária a aprovação de um ser humano.
Agora, o Pentágono já trabalha na criação de um enxame de drones. São centenas ou até milhares de drones autônomos, aprimorados por inteligência artificial, que transportarão equipamentos de vigilância ou armamentos.
Segundo o New York Times, a ideia dos EUA é que esses drones sejam posicionados próximos à China para uma implantação rápida em caso de conflito.
A intenção seria usar esses drones para neutralizar ou, no mínimo, diminuir a ampla rede de sistemas de mísseis antinavio e antiaéreos que a China construiu ao longo de suas costas e ilhas artificiais no Mar do Sul da China.
E esta é apenas uma das várias estratégias em andamento no Pentágono. A meta é ter milhares de drones econômicos, autônomos e por vezes letais em operação nos próximos um ou dois anos.
Esses drones assassinos devem ser capazes de continuar funcionando mesmo em situações em que os sinais de GPS e as comunicações estejam bloqueados.
Apesar dos alertas, alguns especialistas argumentam que ataques totalmente automáticos, controlados por inteligência artificial, podem estar longe de acontecer.
Isso porque, mesmo os algoritmos mais avançados ainda não são totalmente confiáveis, o que significa que não podem tomar decisões autônomas sobre "vida ou morte".