As elites do Vale do Silício acatam a ordem de Trump e abrem a IA militar para "qualquer finalidade legal"

Foto: Flickr CC

Mais Lidos

  • A catolização de Jesus de Nazaré: uma febre que mata. Artigo de Daniel Luiz Medeiros

    LER MAIS
  • A pesquisadora explora imagens artísticas sobre o colapso planetário que vivenciamos e oferece um panorama das questões associadas ao fenômeno do colapso ambiental global no qual estamos inseridos

    Imagens e imaginários do Antropoceno. Entrevista especial com Carolina Cunha

    LER MAIS
  • ‘Magnifica humanitas’, a primeira encíclica de Leão XIV, será lançada em 15 de maio

    LER MAIS

Revista ihu on-line

Natal. A poesia mística do Menino Deus no Brasil profundo

Edição: 558

Leia mais

O veneno automático e infinito do ódio e suas atualizações no século XXI

Edição: 557

Leia mais

Um caleidoscópio chamado Rio Grande do Sul

Edição: 556

Leia mais

05 Mai 2026

O Pentágono deu um passo fundamental para neutralizar a tentativa da Anthropic de estabelecer limites éticos para o uso militar da inteligência artificial. A agência firmou um acordo com importantes empresas do setor de IA, incluindo SpaceX, OpenAI, Google, Nvidia, Microsoft, Amazon e Oracle, para implementar essa tecnologia em "qualquer uso operacional permitido por lei". No caso dos EUA, esse conceito inclui extremos como a vigilância em massa, possibilitada por leis pós-11 de setembro, como o Ato Patriota e a Lei de Vigilância Estrangeira.

A reportagem é de Carlos del Castillo, publicada por El Salto, 04-05-2026.

Isso também evidencia o vácuo jurídico em torno das armas autônomas. Washington não ratificou a iniciativa internacional sobre o Uso Responsável da Inteligência Artificial nas Forças Armadas (REAIM), que visa garantir a presença constante de um ser humano no controle e proibir sistemas capazes de atacar sem supervisão humana. Dezenas de países, incluindo a Espanha, assinaram esse compromisso, mas os EUA, a Rússia e a China não.

“Vigilância interna massiva” e “armas totalmente autônomas” foram precisamente os dois casos que a startup de IA Anthropic citou para se recusar a aceitar a cláusula de “qualquer uso operacional permitido por lei” que o Pentágono tentou impor no início do conflito no Irã. “Em um número limitado de casos, acreditamos que a IA pode minar, em vez de defender, os valores democráticos. Alguns usos também estão simplesmente além do alcance do que a tecnologia atual pode fazer com segurança e confiabilidade”, explicou Dario Amodei, cofundador e CEO da empresa.

Como resultado, a empresa foi banida e declarada um “risco para a cadeia de suprimentos”, o que significa que nem ela nem qualquer outra empresa relacionada a ela poderia ser contratada pelo governo. Posteriormente, um juiz federal emitiu uma liminar suspendendo a decisão, e a Anthropic está negociando sua reintegração aos sistemas do Departamento de Defesa.

No momento, não se sabe se a startup concordará em reduzir os dois limites de segurança que impôs em fevereiro.

As operações de IA serão consideradas material confidencial

A decisão da Anthropic de não remover as duas barreiras de segurança que havia estabelecido para sua IA provocou uma reação furiosa de Donald Trump. Embora o presidente americano tenha feito declarações elogiando a empresa, o incidente gerou um debate no Vale do Silício sobre os limites éticos da IA ​​militar. "Eles querem ditar como nossas grandes forças armadas lutam e vencem guerras", declarou Trump.

A posição da Anthropic foi acompanhada por ativistas e trabalhadores do polo tecnológico americano. A manifestação mais clara veio de um grupo de 560 funcionários do Google, incluindo cerca de vinte vice-presidentes e diretores-gerais, que instaram a alta administração a não acatar as condições exigidas pela Casa Branca para a IA.

O anúncio do Pentágono sobre um acordo com gigantes da IA ​​baseado no princípio de "qualquer uso operacional permitido por lei" é a resposta das elites do Vale do Silício, de Trump e do Departamento de Defesa para neutralizar o debate. "O Departamento de Defesa e seus parceiros estratégicos compartilham a convicção de que a liderança americana em IA é indispensável para a segurança nacional. Essa liderança depende de um ecossistema nacional robusto de desenvolvedores de modelos qualificados que permita o uso pleno e eficaz das capacidades de IA em apoio às missões do Departamento", afirma o comunicado.

Um dos pontos de crítica dos funcionários do Google é o fato de que as operações de IA se tornarão material confidencial. "Queremos que a IA beneficie a humanidade, e não que seja usada de forma desumana ou extremamente prejudicial", afirma a carta enviada ao CEO da empresa, Sundar Pichai. "Isso inclui armas autônomas letais e vigilância em massa, mas vai além disso", apontam, ecoando os argumentos da Anthropic: "A única maneira de garantir que o Google não esteja associado a tais danos é rejeitar qualquer carga de trabalho confidencial. Caso contrário, tais usos poderão ocorrer sem nosso conhecimento ou capacidade de impedi-los."

Em um memorando interno aos funcionários após a assinatura do acordo, Kent Walker, presidente de Assuntos Globais da Alphabet, afirmou que “manter o diálogo com os governos, inclusive em questões de segurança nacional, ajudará as democracias a se beneficiarem de tecnologias responsáveis”. “Temos orgulho de trabalhar com departamentos de defesa desde os primórdios do Google e continuamos acreditando que é importante apoiar a segurança nacional de maneira ponderada e responsável”, prosseguia o memorando, divulgado por veículos como o Financial Times.

Dentre as demais empresas, apenas a OpenAI forneceu detalhes sobre os limites de seu acordo com os militares. A empresa de Sam Altman afirma ter estabelecido três "linhas vermelhas": vigilância doméstica em massa, armas autônomas e tomada de decisão automatizada de alto risco. A declaração do Pentágono não faz menção a essas restrições.

Operações de combate, inteligência e operações internas

A declaração do Pentágono detalha que introduzirá os sistemas de IA dessas empresas em ambientes "IL6 e IL7", que correspondem a redes militares contendo informações classificadas no nível "Secreto" e superior. Explica também que o foco será em "três pilares fundamentais: operações de combate, inteligência e operações internas".

Este último grupo inclui a logística, a gestão de pessoal militar e civil dentro do Departamento de Guerra e seus direitos a licenças. Por outro lado, os dois primeiros pontos representam a integração definitiva da inteligência artificial no núcleo das atividades militares dos EUA. "Ela irá agilizar a síntese de dados, melhorar o conhecimento da situação e aprimorar a tomada de decisões para os combatentes em ambientes operacionais complexos", explica ele.

Em outras palavras, a IA decidirá ou recomendará quem atacar, quando e como, processando informações confidenciais em tempo real. "O acesso a um conjunto diversificado de recursos de IA provenientes da robusta infraestrutura tecnológica dos Estados Unidos fornecerá aos militares as ferramentas necessárias para agir com confiança e proteger a nação de qualquer ameaça", conclui o Pentágono. 

Leia mais