Trump está usando IA para travar suas guerras – este é um ponto de virada perigoso. Artigo de Chris Stokel-Walker

Foto: Goh Rhy Yan/Unsplash

Mais Lidos

  • “Muitos homens pensam que perder a dominação sobre as mulheres é uma perda da sua própria masculinidade, o que não é verdade. Um homem pode ser homem, ter seus valores e nem por isso precisa dominar mulheres, crianças ou pessoas de outras etnias”, diz a socióloga

    Feminicídio: “A noção de propriedade é profunda”. Entrevista especial com Eva Alterman Blay

    LER MAIS
  • Trump enfrenta uma guerra mais longa do que o esperado no Irã, com problemas no fornecimento de munição e armas

    LER MAIS
  • “É fundamental não olharmos apenas para os casos que chocam pela brutalidade, mas também para as violências cotidianas que atingem mulheres e meninas, que muitas vezes são naturalizadas e invisibilizadas”, adverte a assistente social

    Combate à violência contra as mulheres: “Essa luta ainda é urgente”. Entrevista especial com Cristiani Gentil Ricordi

    LER MAIS

Assine a Newsletter

Receba as notícias e atualizações do Instituto Humanitas Unisinos – IHU em primeira mão. Junte-se a nós!

Conheça nossa Política de Privacidade.

Revista ihu on-line

Natal. A poesia mística do Menino Deus no Brasil profundo

Edição: 558

Leia mais

O veneno automático e infinito do ódio e suas atualizações no século XXI

Edição: 557

Leia mais

Um caleidoscópio chamado Rio Grande do Sul

Edição: 556

Leia mais

06 Março 2026

A tecnologia que a maioria das pessoas usa apenas como ferramenta de comunicação para tarefas diárias está, segundo relatos, auxiliando a agressão militar dos EUA. E não há muito que possamos fazer a respeito.

O artigo é de Chris Stokel-Walker, publicado por The Guardian, 03-03-2026.

Chris Stokel-Walker é o autor de TikTok Boom: The Inside Story of the World's Favourite App (A explosão do TikTok: a história interna do aplicativo favorito do mundo).

Eis o artigo.

Há muitas coisas que a IA pode fazer. Ela pode organizar sua lista de compras e entreter seus filhos quando eles estiverem fazendo birra, criando uma história para dormir personalizada para eles. Pode torná-lo mais eficiente no trabalho e ajudar nosso governo a funcionar com mais eficácia.

O que se escreve menos, e sobre o que precisamos gritar mais alto agora, são os riscos inerentes à militarização da IA. Nos últimos três meses, a Casa Branca de Donald Trump teria usado IA duas vezes para efetuar mudanças de regime ou – no caso mais recente, no Irã – para chegar o mais perto possível disso, deixando para os iranianos comuns a tarefa de concluir o trabalho.

Primeiro, o modelo de IA Claude da Anthropic – que a maioria das pessoas usa como uma alternativa um pouco mais criteriosa ao ChatGPT – foi supostamente usado tanto para planejar quanto para executar o sequestro de Nicolás Maduro de seu complexo na Venezuela, mas não está claro como o modelo foi usado em detalhes. Depois, neste fim de semana, descobrimos que a ferramenta de IA foi usada novamente para analisar informações que ajudaram a auxiliar a devastadora saraivada de mísseis que atingiu o Irã, aparentemente para identificar alvos e executar simulações.

É difícil exagerar a importância de ambos os momentos. A inteligência artificial tem sido usada no planejamento e na execução de operações militares que resultaram em um número desconhecido de vítimas e causaram grande instabilidade no Oriente Médio.

Se isso lhe causa desconforto, você não está sozinho. O CEO da Anthropic, Dario Amodei, se envolveu em uma disputa pública bastante desagradável com o presidente dos EUA depois de se recusar a flexibilizar duas "linhas vermelhas" para o Claude: que ele não seja usado para vigilância doméstica em massa, nem para construir armas totalmente autônomas que selecionem e ataquem alvos sem controle humano significativo. A OpenAI rapidamente interveio e assinou um acordo com o Pentágono, embora afirme que os termos do acordo lhe conferem, na verdade, proteções mais robustas do que as que a Anthropic desejava.

Independentemente das subcláusulas específicas do contrato, vale a pena repetir: uma ferramenta que começou sua vida pública como uma interface de bate-papo para resumir e-mails e ajudar a escrever uma carta de apresentação agora está em algum ponto da cadeia que transforma informação em violência.

Antigamente, questões como "Quem deveria controlar a IA e o que aconteceria se ela fosse usada militarmente?" eram debatidas de forma abstrata entre acadêmicos em painéis. Havia preocupações, mas pareciam distantes porque ainda não haviam se concretizado. Quando Maduro foi detido por forças especiais em janeiro e as bombas começaram a cair sobre o Irã, aparentemente todas com o auxílio de IA, esse cenário mudou.

Os princípios básicos dos conflitos armados sempre foram os de possuir armas grandes e assustadoras, mas nunca usá-las. Elas servem para dissuasão. A teoria da destruição mútua assegurada fez com que as pessoas evitassem acionar bombas nucleares. (Preocupantemente, os primeiros indícios de simulações de guerra mostram que os sistemas de inteligência artificial que tomam decisões são propensos a usar armas nucleares.)

Agora essa desculpa não existe mais. Mais países usarão IA em seu planejamento e ações militares – com razão, pois sua eficácia já foi comprovada, embora existam questões morais óbvias sobre o uso da IA ​​para tomar decisões militares. Quando historiadores militares analisarem os acontecimentos dos últimos meses, será fácil perceber que o uso da IA ​​dessa forma será semelhante ao lançamento de armas nucleares sobre o Japão: um momento em que havia um antes claro e um depois incerto.

Então, o que podemos fazer a respeito? Muito pouco. Deveríamos ter tido uma proibição total do uso de IA militar. Estamos nos afastando disso há mais de uma década, desde que Demis Hassabis assumiu uma posição de princípio e disse que só venderia sua empresa, DeepMind, para o Google se este concordasse em não permitir o uso militar da tecnologia. No ano passado, a empresa, agora chamada Alphabet, discretamente abandonou sua promessa de não usar IA para armas. E as ações de Trump destruíram completamente essa ideia.

Mas agora a comunidade internacional precisa trabalhar arduamente para trazer Trump de volta da beira do abismo. Os aliados devem pressionar a Casa Branca de Trump não apenas para que seja responsável no uso militar da IA, mas também para que aceite restrições vinculativas. Isso deve incluir compromissos internacionais, padrões de aquisição transparentes e supervisão significativa, aos quais outros também devem aderir, em vez de tratar a ética como um freio à ação. Porque se as forças armadas mais poderosas do mundo normalizarem modelos de IA de nível de consumo como parte de operações de mudança de regime, estaremos do outro lado do espelho em relação à IA: estaremos em um mundo totalmente novo e muito mais perigoso.

Leia mais