IA, componente essencial da guerra que ainda levanta dúvidas
A guerra no Oriente Médio ilustra a crescente importância da inteligência artificial )IA) nos conflitos, especialmente para a análise de informações e a seleção de alvos, mas sua confiabilidade e seu papel no processo de decisão dos ataques ainda são objeto de intenso debate.
Conflitos recentes, como a guerra em Gaza, na Ucrânia e a captura de Nicolás Maduro, mostram que a IA se tornou um componente essencial das operações militares.
Embora os usos concretos da tecnologia no conflito atual não sejam públicos, especialistas consideram provável que Israel e Estados Unidos - que realizaram milhares de bombardeios contra o Irã desde o início da guerra em 28 de fevereiro - estejam recorrendo à IA para acelerar as operações.
Hoje, "todas as grandes potências militares investem enormemente nas aplicações militares da inteligência artificial", afirma Laure de Roucy-Rochegonde, do Instituto Francês de Relações Internacionais.
"Praticamente todas as funções militares podem ser potencializadas pela IA", acrescenta, citando "logística, reconhecimento, observação, guerra de informação, guerra eletrônica e cibersegurança".
- Aceleração da "kill chain" -
Um dos usos mais conhecidos dessas tecnologias é reduzir o que os militares chamam de "kill chain", o tempo entre a identificação de um alvo e o ataque.
O Exército americano utiliza a plataforma Maven Smart System (MSS), criada pela empresa Palantir, que permite identificar alvos potenciais e classificá-los por prioridade. Segundo o The Washington Post, o modelo de IA Claude, da Anthropic, foi integrado ao sistema para ampliar suas capacidades de identificação e simulação.
Os algoritmos "nos permitem processar as informações muito mais rápido e, sobretudo, ser mais completos", explica Bertrand Rondepierre, responsável pelo desenvolvimento de IA no Exército francês (Amiad).
A tecnologia pode analisar enormes volumes de dados, "de imagens de satélite, radar e sinais eletromagnéticos até som, imagens de drones e, às vezes, vídeos em tempo real", acrescenta.
- "Quem é responsável?" -
O uso da IA levanta questões morais e jurídicas, sobretudo sobre o controle humano dessas tecnologias.
O debate ganhou força na guerra em Gaza, onde Israel utilizou um programa chamado "Lavender" para identificar alvos no território palestino, com margem de erro.
Segundo Laure de Roucy-Rochegonde, o sistema pode ter sido aplicado em Gaza "porque se tratava de um território muito reduzido" e estava "associado a um sistema de vigilância em massa" da população. "Parece menos provável que um sistema dessa magnitude tenha sido implantado no Irã", avalia.
"Se algo dá errado, quem é responsável?", questiona Peter Asaro, presidente da ONG Comitê Internacional para o Controle de Armas Robotizadas.
Ele citou o suposto bombardeio de uma escola em Minab, no Irã, que deixou 150 mortos segundo autoridades iranianas. Nem Estados Unidos nem Israel reconheceram o ataque, embora Washington tenha afirmado que investiga o caso.
Vários meios de comunicação, entre eles o The New York Times, afirmam que o prédio ficava perto de instalações da Guarda Revolucionária.
"Eles não distinguiram a escola da base militar como deveriam (...) mas quem são eles?", pergunta Asaro. Humanos ou máquinas?
Se a IA foi usada, a questão central é saber "qual é a antiguidade dos dados" utilizados ou se houve um "erro de base de dados".
Para Rondepierre, porém, imaginar que as IA "operam sem que ninguém tenha controle" é "ficção científica".
"Nenhum responsável militar aceitaria usar IA se não tiver confiança e controle sobre o que ela faz", afirma.
Segundo Benjamin Jensen, do centro de estudos CSIS em Washington, o uso militar da IA ainda está em uma fase "muito inicial".
Os Exércitos ainda não "repensaram fundamentalmente a forma como planejam e conduzem operações para aproveitar plenamente essas inovações", afirma. "Provavelmente será necessária toda uma geração para compreendermos realmente como explorar tudo isso".
H. de Araujo--JDB