Essas não são empresas de IA, são empreiteiras de defesa. Não podemos deixá-las se esconder atrás de seus modelos. Artigo de Avner Gvaryahu

Foto: Dc studio | Freepik

Mais Lidos

  • Thiel leva suas palestras sobre o Anticristo à porta do Vaticano, e as instituições católicas recuam

    LER MAIS
  • “Em uma sociedade capitalista, nosso cansaço é político”. Entrevista com Romain Huët

    LER MAIS
  • Em meio à escalada autoritária de Trump contra países com recursos estratégicos ao seu país, Brasil começa a desenvolver sua Estratégia Nacional de Terras Raras

    Brasil e o novo regime global de governança mineral. Entrevista especial com Edna Aparecida da Silva

    LER MAIS

Assine a Newsletter

Receba as notícias e atualizações do Instituto Humanitas Unisinos – IHU em primeira mão. Junte-se a nós!

Conheça nossa Política de Privacidade.

Revista ihu on-line

Natal. A poesia mística do Menino Deus no Brasil profundo

Edição: 558

Leia mais

O veneno automático e infinito do ódio e suas atualizações no século XXI

Edição: 557

Leia mais

Um caleidoscópio chamado Rio Grande do Sul

Edição: 556

Leia mais

17 Março 2026

De Gaza ao Irã, o padrão é o mesmo: armas de precisão, cegueira voluntária e crianças mortas. O custo da falha em regulamentar a guerra com inteligência artificial já é muito alto.

A opinião é de Avner Gvaryahu, em artigo publicado por The Guardian, 15-03-2026.

Avner Gvaryahu é pesquisador de doutorado na Blavatnik School of Government, da Universidade de Oxford. Ele é ex-diretor executivo da Breaking the Silence, uma organização israelense de direitos humanos composta por ex-soldados.

Eis o artigo.

Existe uma estratégia militar israelense chamada "procedimento da névoa". Utilizada pela primeira vez durante a Segunda Intifada, trata-se de uma regra não oficial que exige que os soldados que guardam postos militares em condições de baixa visibilidade disparem rajadas de tiros na escuridão, partindo do princípio de que uma ameaça invisível possa estar à espreita.

É violência legitimada pela cegueira. Atirar na escuridão e chamar isso de dissuasão. Com o advento da guerra com IA, essa mesma lógica de cegueira voluntária foi refinada, sistematizada e entregue a uma máquina.

A recente guerra de Israel em Gaza foi descrita como a primeira grande “guerra de IA” – a primeira guerra em que sistemas de IA desempenharam um papel central na geração da lista de supostos militantes do Hamas e da Jihad Islâmica que Israel deveria alvejar. Sistemas que processaram bilhões de pontos de dados para classificar a probabilidade de que qualquer pessoa no território fosse um combatente.

A escuridão na torre de vigia era uma condição do terreno. A escuridão dentro do algoritmo é uma condição do projeto. Em ambos os casos, a cegueira foi escolhida. Foi escolhida porque a cegueira é útil: cria negação, faz com que a violência pareça inevitável, transfere a questão de quem decidiu de uma pessoa para um procedimento. A névoa não se dissipou. Foi atribuída uma pontuação de probabilidade e chamada de inteligência.

Pode ter sido a cegueira voluntária que levou, no início da guerra entre os EUA e o Irã, ao ataque à escola primária Shajareh Tayyebeh em Minab, no sul do Irã. Pelo menos 168 pessoas foram mortas, a maioria crianças, meninas de sete a 12 anos.

As armas eram precisas. Especialistas em munições descreveram o ataque como "incrivelmente preciso", cada prédio atingido individualmente, sem nenhum erro. O problema não foi a execução, mas sim a inteligência. A escola havia sido separada de uma base adjacente da Guarda Revolucionária por uma cerca e adaptada para uso civil quase uma década antes. Em algum ponto do processo de seleção de alvos, essa informação parece não ter sido atualizada.

O papel exato da IA ​​no ataque a Minab não foi oficialmente confirmado. Sabe-se que a infraestrutura de direcionamento na qual esses sistemas operam não possui um mecanismo confiável para sinalizar quando a inteligência subjacente está desatualizada em uma década.

Independentemente de ter sido um algoritmo que selecionou essa escola, ela foi escolhida por um sistema desenvolvido por meio de inteligência artificial. Para atingir mil alvos nas primeiras 24 horas da campanha no Irã, as forças armadas dos EUA contaram com sistemas de IA para gerar, priorizar e classificar a lista de alvos a uma velocidade que nenhuma equipe humana conseguiria replicar.

Gaza era o laboratório. Minab é o mercado. O resultado é um mundo em que as decisões de alvos mais importantes na guerra moderna são tomadas por sistemas que não conseguem se explicar, abastecidos por empresas que não respondem a ninguém, em conflitos que não geram responsabilização nem prestação de contas. Isso não é uma falha do sistema. Isso é o sistema.

De quem é a culpa quando a IA mata?

Devemos resistir à tentação de culpar exclusivamente o algoritmo pela lógica que torna as taxas de erro de crianças aceitáveis. Em julho de 2014, quatro meninos da família Bakr – Ismail, Zakariya, Ahed e Mohammad, com idades entre nove e onze anos – foram mortos em uma praia em Gaza. Nenhuma inteligência artificial esteve envolvida. O local havia sido previamente classificado como um complexo naval do Hamas. Os meninos foram sinalizados como suspeitos porque correram e depois caminharam – um comportamento que correspondia a um padrão de alvo para combatentes que tentavam não chamar a atenção. Quando o primeiro míssil atingiu o alvo, as crianças sobreviventes fugiram. O drone as seguiu e disparou novamente. Um oficial testemunhou posteriormente que, de uma perspectiva aérea vertical, é muito difícil identificar crianças. O ataque foi registrado como um erro de alvo.

Um banco de dados militar israelense confidencial, analisado pelo The Guardian, pela revista +972 e pelo Local Call, indicou que, das mais de 53 mil mortes registradas em Gaza, combatentes identificados do Hamas e da Jihad Islâmica representaram cerca de 17%. Isso sugere que os 83% restantes eram civis. Essas não são as estatísticas de uma guerra travada com precisão; esta é uma guerra onde a imprecisão é o objetivo. (As Forças de Defesa de Israel contestaram os números apresentados no artigo do The Guardian, embora não tenham especificado quais.)

Portanto, os sistemas de mira por IA não inventaram essa lógica. Eles a herdaram, codificaram-na em milhões de pontos de dados e automatizaram-na além de qualquer verificação humana significativa. Quando uma escola em Minab é classificada em um banco de dados como um complexo militar, isso não é uma falha. É o procedimento de névoa, a mesma lógica que perseguiu quatro meninos em uma praia em Gaza – funcionando exatamente como planejado, em uma escala diferente, em um país diferente, com uma arma diferente. A escuridão apenas possui um hardware melhor agora.

Muitos desses sistemas de IA desafiam inerentemente o direito internacional humanitário, que não exige apenas resultados corretos das operações militares; exige também um processo cuidadoso antes de sua execução. Um comandante deve fazer todos os esforços razoáveis ​​para verificar se um alvo é um objetivo militar legítimo. A lei também exige que tudo o que for possível seja feito para proteger os civis dos efeitos de um ataque, não como uma reflexão tardia, mas como uma obrigação paralela e equivalente.

Essa obrigação não pode ser delegada a um sistema cujo raciocínio é opaco e cujos resultados não podem ser questionados em tempo real. Em Gaza, um algoritmo processou dados de todas as pessoas na Faixa de Gaza – registros telefônicos, padrões de movimento, conexões sociais, sinais comportamentais – e gerou uma lista hierarquizada de nomes, a cada um atribuído um score de probabilidade indicando a probabilidade de serem combatentes. Isso não é o mesmo que um analista humano identificar um militante conhecido e programar uma arma para atingi-lo. A IA não estava confirmando identidades. Ela as inferia, estatisticamente, em toda a população, gerando alvos que nenhum ser humano havia avaliado individualmente antes de aparecerem na lista.

Nesse sistema, a verificação consistia em um operador humano revisar cada nome por uma média de 20 segundos, tempo suficiente para confirmar que o alvo era do sexo masculino. Em seguida, ele finalizava o processo. Um único sistema gerou mais de 37 mil alvos nas primeiras semanas da guerra. Outro era capaz de gerar 100 potenciais locais de bombardeio por dia. Os humanos envolvidos não estavam exercendo julgamento. Eles estavam gerenciando uma fila.

No Irã, o cenário, neste momento, é menos documentado. Mas a escala fala por si só. Duas fontes confirmaram à NBC News que os sistemas de IA da Palantir, que se baseiam em parte em tecnologia de modelos de linguagem de grande escala, foram usados ​​para identificar alvos. (O CEO da Palantir, Alex Karp, disse que "não podia entrar em detalhes" quando questionado sobre isso na CNBC, mas afirmou que Claude ainda estava integrado aos sistemas da Palantir usados ​​na guerra do Irã.) Brad Cooper, chefe do Comando Central dos EUA, vangloriou-se de que os militares estão usando IA no Irã para "analisar vastas quantidades de dados em segundos" a fim de "tomar decisões mais inteligentes e mais rápidas do que o inimigo consegue reagir". Independentemente de todos os ataques terem sido ou não auxiliados por IA, o ritmo da campanha só foi possível porque a seleção de alvos foi substancialmente automatizada.

Quando os tempos de verificação relatados para alvos assistidos por IA são medidos em segundos, não estamos mais falando de julgamento humano com auxílio algorítmico. Estamos falando de simplesmente aprovar o resultado de uma máquina. E quando os dados dessa máquina estão desatualizados em uma década, as consequências se repetem como pequenas tragédias.

As empresas envolvidas nisso não são startups obscuras do setor de defesa. A Palantir, fundada com financiamento inicial da CIA e agora uma das principais fornecedoras de infraestrutura de IA para as forças armadas dos EUA, forneceu sistemas usados ​​na campanha contra o Irã. Esses sistemas se baseiam, em parte, no Claude da Anthropic, um modelo de linguagem de grande escala cuja empresa controladora tentou resistir à pressão do Pentágono para remover as restrições éticas ao seu uso para direcionamento de alvos. O Pentágono respondeu ameaçando romper relações e recorrendo à OpenAI e outras empresas. O mercado de assassinatos em larga escala não carece de fornecedores.

O episódio é instrutivo: a única empresa que tentou impor limites foi marginalizada, e a matança continuou sem interrupção. O Google, apesar de significativos protestos internos de seus funcionários, assinou o Projeto Nimbus, um contrato de computação em nuvem e inteligência artificial com o governo e as forças armadas israelenses no valor de mais de US$ 1 bilhão.

A Amazon é signatária do Projeto Nimbus juntamente com o Google. A Microsoft tinha uma profunda integração com os sistemas militares israelenses antes de se retirar parcialmente sob pressão em 2024, momento em que os dados migraram para a Amazon Web Services em questão de dias.

A Anduril, fundada por Palmer Luckey e composta em grande parte por ex-funcionários da defesa dos EUA, constrói sistemas de armas autônomas projetados explicitamente para ataques letais. A OpenAI, que até recentemente proibia o uso militar em seus termos de serviço, removeu discretamente essa restrição no início de 2024 e, desde então, busca contratos com o Pentágono. Essas estão entre as empresas mais valiosas do mundo, com produtos de consumo utilizados por centenas de milhões de pessoas, parcerias de pesquisa com universidades e influência política significativa em Washington, Bruxelas e outros países.

É claro que empresas privadas fornecem equipamentos para as forças armadas há séculos – rádios, caminhões, sistemas de navegação por satélite, tecnologia de micro-ondas e, obviamente, sistemas de armas complexos. Isso não é novidade nem inerentemente corrupto. O problema do "duplo uso" é tão antigo quanto a industrialização: quase qualquer tecnologia poderosa pode ser usada para fins militares.

Mas a inteligência artificial para direcionamento de alvos não é simplesmente um componente que as forças armadas incorporam em suas operações. É a própria arquitetura de decisão – o que determina quem será morto e por quê. Quando um único sistema consegue gerar dezenas de milhares de alvos no tempo que uma equipe de inteligência humana levaria para verificar 10, a questão não é se empresas privadas devem fornecer seus serviços às forças armadas. É se qualquer estrutura legal conseguirá sobreviver ao contato com essa tecnologia.

No direito internacional, falamos de estruturas de responsabilização: a cadeia de responsabilidade que vai da decisão de usar força letal até a pessoa que a autorizou. Uma estrutura de responsabilização exige que alguém seja identificado como o tomador de decisão, que seu raciocínio seja reconstruível posteriormente e que as obrigações processuais exigidas por lei – avaliação da proporcionalidade, verificação, precaução – possam ser comprovadamente cumpridas.

A inteligência artificial (IA) que visa alvos destrói sistematicamente cada uma dessas condições. A atribuição se dissolve em uma cadeia de engenheiros, comandantes, operadores e fornecedores corporativos, cada um dos quais pode apontar para outro. O raciocínio desaparece em uma pontuação de probabilidade que nenhum advogado pode auditar e nenhum tribunal pode questionar. O processo se resume a uma aprovação de 20 segundos de uma recomendação da máquina. E as empresas que construíram e venderam o sistema estão completamente fora da estrutura legal, porque o direito internacional humanitário foi concebido para os Estados e seus agentes, e a Palantir não é signatária das Convenções de Genebra.

O arcabouço de responsabilização não foi apenas tensionado ou testado pela guerra com IA. Ele se tornou estruturalmente irrelevante.

Dissipando a névoa da guerra

Devemos parar de chamar essas empresas de tecnologia pelo que elas realmente são: empreiteiras de defesa.

As maiores empresas de IA não são fornecedoras neutras de infraestrutura que por acaso encontraram um cliente militar. Elas estão sendo integradas à arquitetura de direcionamento da guerra moderna. Seus sistemas estão inseridos na cadeia de destruição, seus engenheiros possuem autorizações de segurança, seus executivos transitam pela mesma porta giratória que sempre conectou o Vale do Silício ao Pentágono.

Esses fornecedores de IA estão na vanguarda do complexo militar-industrial e devem ser regulamentados como tal. Uma cadeia de responsabilidade clara se aplica a empresas como a Raytheon e a Lockheed Martin – incluindo controles de exportação, supervisão do Congresso, estruturas de responsabilidade e condições de aquisição – enquanto as regulamentações frouxas que se aplicam às empresas que desenvolvem os algoritmos que selecionam alvos militares nunca foram aplicadas, testadas ou cumpridas.

Isso não é um descuido. É uma escolha, ativamente mantida por meio de lobby, pela deliberada confusão entre produtos “comerciais” e “de defesa” e por uma cultura regulatória que ainda trata a IA como uma tecnologia de consumo que por acaso chegou ao campo de batalha. A Palantir gastou quase US$ 6 milhões em lobby em Washington em 2024 e, em um trimestre de 2023, superou os gastos da Northrop Grumman. Ela lançou uma fundação dedicada a moldar o ambiente político em que opera. O consórcio formado por Palantir, Anduril, OpenAI, SpaceX e Scale AI foi descrito por seus próprios participantes como um projeto para fornecer uma nova geração de contratados de defesa ao governo dos EUA. As empresas de capital de risco que apoiam essas empresas, Andreessen Horowitz e Founders Fund, cultivaram influência por meio da proximidade com o poder: ex-altos funcionários em seus conselhos consultivos, sócios que transitam por cargos governamentais e acesso direto aos formuladores de políticas que determinam quanto o Pentágono gasta e em quê.

A Lei de IA da UE, a tentativa mais ambiciosa até agora de regulamentar a inteligência artificial, isenta explicitamente as aplicações militares e de segurança nacional, com a justificativa declarada de que o direito internacional humanitário é a estrutura mais apropriada. Trata-se de um notável ato de circularidade: o próprio corpo de direito que está sendo sistematicamente destruído por esses sistemas é designado como seu regulador, enquanto os reguladores que poderiam de fato restringi-los ignoram a situação.

Nos Estados Unidos, as disposições sobre IA da Lei de Autorização de Defesa Nacional de 2025 não regulamentam a IA militar. Elas orientam as agências a adotarem mais IA. A estratégia de IA de Pete Hegseth, divulgada em janeiro de 2026, enquadra a questão inteiramente como uma corrida, orientando o Pentágono a agir em ritmo de guerra, com a IA como o primeiro campo de testes. A cultura regulatória não deixou de acompanhar a tecnologia. Ela simplesmente decidiu, deliberadamente, não tentar.

Até o momento, a única intervenção governamental séria na capacidade militar da IA ​​que vimos não veio de um Estado exigindo moderação ou responsabilização, mas sim dos EUA exigindo que os sistemas se tornassem mais letais. Esse é o horizonte de ambição que aceitamos.

Proibir completamente esses sistemas é impossível quando tantos dos atores envolvidos demonstram pouco interesse pelo direito internacional. Mas os pontos de pressão permanecem, e são reais. Qualquer futuro governo em Washington que deseje usar capacidade militar de IA sem produzir uma série interminável de Minabs precisará de uma estrutura regulatória – não como uma concessão às críticas, mas como um requisito básico para não se tornar um ator desonesto. O mesmo se aplica à Europa, onde o Reino Unido investiu mais de £ 1 bilhão em um novo sistema de mira integrado com IA, conectando sensores e capacidades de ataque em todos os domínios, onde a principal empresa de IA da França firmou parceria com uma startup alemã de defesa para construir plataformas de armas autônomas e onde a Alemanha está implantando drones de ataque guiados por IA na Ucrânia.

Existe uma oportunidade para regulamentar esses sistemas. A UE possui as ferramentas mais óbvias, não por meio da Lei de IA, que isenta deliberadamente aplicações militares, mas sim por meio de controles de exportação e condições de aquisição para sistemas de dupla utilização que transitam entre os mercados comercial e de defesa. Tribunais internacionais também estão começando a abrir portas: o parecer consultivo da Corte Internacional de Justiça sobre os direitos palestinos criou uma estrutura na qual empresas que fornecem sistemas usados ​​em ataques ilegais enfrentam potencial responsabilidade em jurisdições que levam o direito internacional a sério. E as empresas de IA precisam dos governos, não apenas como clientes, mas como provedores do poder computacional, da energia e da infraestrutura física que a IA de ponta exige e que nenhuma empresa consegue sustentar apenas com receitas comerciais. Essa dependência confere aos Estados dispostos a usá-la uma influência real sobre as empresas que preferem não ser regulamentadas. A questão é se algum governo com as ferramentas para agir decidirá, antes da próxima reunião de Minab, que o custo da inação se tornou muito alto.

A regulamentação que deveria ser feita é relativamente simples, ainda que difícil de aplicar. Os sistemas de IA usados ​​na seleção de alvos devem ser explicáveis ​​– não por meio de uma pontuação de probabilidade, mas sim por meio de um raciocínio que possa ser auditado por um advogado. O custo civil cumulativo das campanhas assistidas por IA deve ser avaliado em sua totalidade. E a responsabilidade que se limita ao operador deve se estender por toda a cadeia de suprimentos, até as empresas que, conscientemente, construíram e venderam sistemas opacos para uso em conflitos armados. Essas não são exigências novas. São as condições mínimas para que as leis da guerra tenham algum significado na era da seleção de alvos algorítmica.

Entretanto, o procedimento de combate na neblina está operacional e vem definindo o futuro da guerra. Mas os soldados que atiraram na escuridão estavam, pelo menos, presentes nela. As empresas que construíram o que os substituiu fazem isso a partir de Palo Alto, sem riscos pessoais, sem responsabilidade legal e com todos os incentivos para repetir a experiência.

Leia mais