24 Março 2026
Os Estados Unidos vêm trabalhando com o setor privado há 10 anos para desenvolver maiores capacidades militares utilizando inteligência artificial. O Irã agora serve de campo de testes para essa colaboração.
O artigo é de Katrina Manson, publicada por Bloomberg e reproduzida por El País, 20-03-2026.
Este artigo é uma versão resumida e editada do texto publicado pela Bloomberg.
Eis o artigo.
Os EUA tomaram medidas drásticas que podem, em última análise, alterar o futuro da guerra impulsionada por inteligência artificial. Pouco depois das 17h do dia 27 de fevereiro, o governo Trump declarou a Anthropic, startup de IA avaliada em US$ 380 bilhões, como um risco para sua cadeia de suprimentos. Além de fabricar chatbots e ferramentas de programação para consumidores, a Anthropic detinha contratos significativos para fornecer serviços de IA às forças armadas. Essa relação se deteriorou quando a empresa se recusou a permitir que sua tecnologia Claude fosse usada para viabilizar a vigilância em massa de cidadãos ou armas totalmente autônomas. Com essa medida, o governo colocou na lista negra uma das startups de tecnologia mais promissoras do país, como se fosse uma empresa controlada pelos militares chineses. O presidente Trump também ridicularizou a Anthropic nas redes sociais.
Cerca de oito horas depois, os Estados Unidos bombardearam o Irã. A campanha não foi exatamente a guerra robótica à qual a Anthropic se opôs, mas há indícios de que esse futuro possa estar se aproximando rapidamente. Utilizando um sistema de controle de missão baseado em inteligência artificial chamado Maven Smart System, os EUA atingiram 1.000 alvos nas primeiras 24 horas da guerra — aproximadamente o dobro do número atingido na Guerra do Iraque de 2003. Em 10 dias, já haviam atingido 5.000 alvos, segundo o Comando Central dos EUA (Centcom).
Os EUA já haviam utilizado o sistema inteligente Maven para compartilhar informações de alvos com a Ucrânia em 2022 e, posteriormente, em ataques contra o Iraque, a Síria e os houthis em 2024. Mas os ataques contra o Irã representaram o maior teste da tecnologia até o momento. Pela primeira vez, alvos de combate foram atacados com drones semiautônomos de baixo custo. O comandante das forças americanas na região descreveu esses dispositivos como “indispensáveis”.
Em meu livro, Projeto Maven, no qual este artigo se baseia, detalho a busca de uma década das forças armadas por ferramentas de guerra baseadas em IA, bem como a visão dos EUA para o futuro da guerra na era da IA. A tecnologia melhorou enormemente nesse período, mas ainda está em desenvolvimento. Com o Sistema Inteligente Maven, as forças armadas esperam ser capazes de identificar e selecionar 1.000 alvos não em um dia, mas em apenas uma hora, de acordo com uma fonte próxima às operações militares no Irã, que, assim como outros entrevistados para este artigo, solicitou anonimato.
As forças armadas também estão trabalhando para integrar a IA diretamente em seus drones de ataque unidirecionais, para que possam navegar, localizar alvos e realizar ataques letais mesmo quando as comunicações sem fio forem interrompidas.
Ainda não está claro, pelo menos para quem não possui autorização de segurança, exatamente como a IA tem sido usada no Irã. Timothy Hawkins, porta-voz do Centcom, afirma que ela está sendo usada para gerar os chamados "pontos de interesse" que auxiliam seus funcionários na tomada de decisões. "Em resumo, essas ferramentas ajudam os líderes — humanos — a tomar decisões mais inteligentes e rápidas", diz ele. Mais de 1.300 civis foram mortos em ataques aéreos contra o Irã até a última segunda-feira, incluindo mais de 175 no ataque que, segundo autoridades iranianas, teve como alvo uma escola para meninas. Algumas reportagens atribuem o ataque a um míssil Tomahawk americano que utilizou informações de inteligência desatualizadas. O Pentágono não confirmou se também utilizou inteligência artificial.
Frota de drones
Apesar da demonstração de força no Irã, autoridades do Pentágono temem que os EUA corram o risco de ficar para trás. Os esforços do departamento para construir uma frota de drones com inteligência artificial capazes de realizar ataques aéreos e marítimos foram prejudicados por falsos começos, prazos não cumpridos e inconsistência estratégica. E as autoridades estão olhando além do Oriente Médio. Como disse uma pessoa familiarizada com as operações americanas: "O Irã é um prelúdio impressionante do que poderia acontecer em Taiwan em um ataque chinês".
O Pentágono começou a investir seriamente em IA em 2017. O objetivo era criar algoritmos de visão computacional capazes de analisar vídeos de drones, detectar objetos e transformar grandes quantidades de dados em "inteligência e insights úteis em alta velocidade". Na época, o governo insinuou que o programa Maven não seria usado para direcionamento de alvos em combate, mas os envolvidos afirmam que ele sempre foi concebido para esse propósito.
Desde o início, a Maven também contou com a cooperação do setor privado, e tensões como as que surgiram entre o governo Trump e a Anthropic sempre estiveram presentes. Um de seus primeiros parceiros foi o Google. Quando a notícia dessa colaboração se tornou pública, milhares de funcionários protestaram, e a empresa teve que esclarecer que o trabalho se destinava exclusivamente a "usos não ofensivos". Mesmo assim, acabou decidindo não renovar o contrato.
No fim, as Forças Armadas conseguiram que o setor privado construísse grande parte do que precisavam. A Palantir, empresa de software de análise de dados, criou o Maven Smart System, que também incorporou tecnologia da Amazon, Microsoft e da startup de visão computacional Clarifai, entre outras. A Amazon forneceu às Forças Armadas computação em nuvem segura, e outras empresas de tecnologia, como a Andúril, trabalham em estreita colaboração com o Pentágono.
Atualmente, todos os comandos militares dos EUA em todo o mundo utilizam o sistema inteligente Maven, e no ano passado a Otan também começou a usar uma versão. No entanto, os EUA sabem que não podem contar com comunicações sem fio ininterruptas durante o combate e precisam de drones que possam operar independentemente do quartel-general. O interesse dentro do Departamento de Defesa cresceu no desenvolvimento de IA que pudesse funcionar inteiramente em um drone autônomo (seja para voo ou navegação), capaz de identificar e atacar alvos sem intervenção humana. A partir de 2022, a equipe Maven do Pentágono começou a coletar grandes quantidades de imagens de navios chineses no Pacífico, que foram usadas para criar algoritmos que os drones na região poderiam usar para identificação de alvos.
Embora esse armamento potencialmente autônomo tenha inspirado medo e rejeição entre seus críticos, ele exerceu um estranho poder sobre aqueles que o construíram. "Não há nada como observar uma máquina mirando", diz uma pessoa envolvida nos projetos de IA do departamento. "Tem uma aparência alienígena, uma sensação de outro mundo. É aterrorizante."
Surgiu um debate dentro do governo dos EUA sobre quanta inteligência artificial (IA) relacionada à defesa o Pentágono deveria desenvolver internamente, em vez de adquiri-la de fornecedores comerciais. Uma facção de autoridades defendia drones simples com IA que pudessem ser enviados a aliados no Pacífico e mobilizados rapidamente caso as hostilidades eclodissem. Outros queriam desenvolver enxames de drones. Algumas autoridades pressionavam pelo sigilo absoluto para preservar o elemento surpresa, enquanto outras acreditavam que demonstrar as capacidades tecnológicas superiores do Pentágono seria um fator de dissuasão.
Havia também uma crescente sensação de que o Pentágono precisava de uma mudança de abordagem. Em 2023, Jane Pinelis, que supervisionou os testes e a avaliação do Maven em seus primórdios, afirmou que as forças armadas americanas precisavam aumentar sua tolerância ao risco se quisessem acompanhar o ritmo da IA. A perfeição era simplesmente impossível: erros poderiam ocorrer devido a falhas na IA, dados incorretos e à tendência dos algoritmos de perderem precisão com o tempo — um fenômeno conhecido como deriva. A única coisa sensata a fazer, disse-me Pinelis mais tarde, era planejar para quando a IA falhasse.
Durante a presidência de Joe Biden, o Pentágono concentrou-se na construção de sistemas complexos de armas autônomas. Divulgou aspectos do seu progresso para atrair parceiros comerciais e demonstrar o potencial das capacidades americanas à China. Em 2023, Kathleen Hicks, então Subsecretária de Defesa, anunciou a existência do Replicator, um programa para implantar rapidamente milhares de drones autônomos em caso de conflito com o Exército de Libertação Popular (ELP) de Pequim. Ela sugeriu que a China teria muita dificuldade em resistir a uma saraivada de drones americanos. Mais tarde, ela me disse que o programa priorizava sistemas que pudessem ser concluídos até 2027, ano em que, segundo autoridades americanas, a China planeja ter a capacidade de tomar Taiwan.
Seleção de alvos
Para aprimorar suas forças armadas, os EUA contaram com a ajuda do Vale do Silício. A equipe da Maven ficaria responsável pelas capacidades de reconhecimento automático de alvos, capturando dados coletados pelo governo a partir de câmeras instaladas em navios, câmeras portuárias, sistemas infravermelhos e drones táticos que sobrevoam as águas ao redor da China e de Taiwan. Essas informações seriam disponibilizadas para empresas privadas, que as utilizariam para desenvolver modelos de IA para auxiliar os drones na seleção de alvos. Entre esses parceiros estavam a Microsoft, a Clarifai e a AeroVironment, uma fabricante de drones. No verão passado, altos funcionários da defesa, incluindo o chefe do Estado-Maior Conjunto, assistiram a vídeos demonstrando a capacidade dos modelos de identificar automaticamente destróieres chineses — um passo rumo ao desenvolvimento de drones com inteligência artificial capazes de atacar tais embarcações. "Agora estamos monitorando constantemente as forças armadas chinesas para obter dados de treinamento para a IA", afirma um oficial da defesa.
A tecnologia da Maven se beneficiou da grande quantidade de dados disponíveis. No entanto, a equipe do projeto nem sempre entregou o software no prazo, e seus modelos eram difíceis de integrar aos computadores dos drones. Às vezes, a IA tinha dificuldades para detectar várias embarcações simultaneamente, e suas capacidades de rastreamento de objetos podiam ser prejudicadas por respingos de água do mar que atingiam a lente da câmera do drone.
Enquanto isso, o Pentágono trabalhava discretamente em diversos programas de armas autônomas. De acordo com documentos do orçamento da Marinha, um desses programas, chamado Goalkeeper e conduzido pelo Escritório de Pesquisa Naval, focava em drones capazes de voar, selecionar alvos e atacar sem intervenção humana. Outro, chamado Whiplash, buscava aproveitar o domínio dos EUA em veículos aquáticos pessoais e tinha como objetivo transformar até 600 deles em robôs portadores de bombas. "Os EUA têm muitos veículos aquáticos pessoais, então é ótimo que possamos transformá-los em armas", explica uma pessoa familiarizada com o programa.
Os debates continuam no Pentágono e no Congresso sobre questões fundamentais relacionadas ao desenvolvimento de drones autônomos, e permanece a incerteza sobre quais programas receberão financiamento e apoio institucional. Tanto o Whiplash quanto o Goalkeeper desapareceram dos orçamentos quando Trump retornou ao poder. No entanto, sua produção continua, de acordo com o orçamento de 2026, que descreve seu trabalho sem mencioná-los nominalmente.
O governo também continua lançando novos projetos. Em janeiro, anunciou uma competição de US$ 100 milhões para desenvolver ferramentas que interpretem comandos verbais de comandantes humanos e os traduzam em instruções para enxames de drones autônomos. Entre as empresas que passaram da primeira fase estão a OpenAI, a Palantir e a SpaceX. As fases posteriores da competição exigem o desenvolvimento de "conhecimento do alvo e compartilhamento de informações" e, por fim, "lançamento para matar", o termo usado pelo Pentágono para a trajetória de um drone assassino. Essa tecnologia poderá um dia fazer parte de um sistema de armas totalmente autônomo. Jack Shanahan, o general aposentado que liderou o projeto Maven, afirma que nenhum sistema de mísseis de longo alcance, em sua forma atual, deve ser considerado para uso como um sistema de armas autônomo. "Depender demais deles neste estágio é uma receita para o desastre", alerta.
Leia mais
-
Teólogos morais católicos e especialistas em ética apoiam a abordagem antropogênica no embate governamental sobre IA
-
IA: “Não é nem inteligente nem artificial”, afirma Miguel Nicolelis
-
"Armas letais gerenciadas por algoritmos", diz gerente da OpenAI ao cargo
-
Entrevista com a inteligência artificial Claude, a IA atacada por Trump
-
O Irã está visando a infraestrutura de inteligência artificial dos países do Golfo
-
Machine Intelligence: a inteligência artificial e a espionagem. Artigo de Paolo Benanti
-
Yuval Noah Harari: “Existe um potencial totalitário na inteligência artificial nunca antes visto”
-
“A tecnologia deve ser para a pessoa ou se corre o risco de um totalitarismo digital”