05 Mai 2026
O Pentágono deu um passo fundamental para neutralizar a tentativa da Anthropic de estabelecer limites éticos para o uso militar da inteligência artificial. A agência firmou um acordo com importantes empresas do setor de IA, incluindo SpaceX, OpenAI, Google, Nvidia, Microsoft, Amazon e Oracle, para implementar essa tecnologia em "qualquer uso operacional permitido por lei". No caso dos EUA, esse conceito inclui extremos como a vigilância em massa, possibilitada por leis pós-11 de setembro, como o Ato Patriota e a Lei de Vigilância Estrangeira.
A reportagem é de Carlos del Castillo, publicada por El Salto, 04-05-2026.
Isso também evidencia o vácuo jurídico em torno das armas autônomas. Washington não ratificou a iniciativa internacional sobre o Uso Responsável da Inteligência Artificial nas Forças Armadas (REAIM), que visa garantir a presença constante de um ser humano no controle e proibir sistemas capazes de atacar sem supervisão humana. Dezenas de países, incluindo a Espanha, assinaram esse compromisso, mas os EUA, a Rússia e a China não.
“Vigilância interna massiva” e “armas totalmente autônomas” foram precisamente os dois casos que a startup de IA Anthropic citou para se recusar a aceitar a cláusula de “qualquer uso operacional permitido por lei” que o Pentágono tentou impor no início do conflito no Irã. “Em um número limitado de casos, acreditamos que a IA pode minar, em vez de defender, os valores democráticos. Alguns usos também estão simplesmente além do alcance do que a tecnologia atual pode fazer com segurança e confiabilidade”, explicou Dario Amodei, cofundador e CEO da empresa.
Como resultado, a empresa foi banida e declarada um “risco para a cadeia de suprimentos”, o que significa que nem ela nem qualquer outra empresa relacionada a ela poderia ser contratada pelo governo. Posteriormente, um juiz federal emitiu uma liminar suspendendo a decisão, e a Anthropic está negociando sua reintegração aos sistemas do Departamento de Defesa.
No momento, não se sabe se a startup concordará em reduzir os dois limites de segurança que impôs em fevereiro.
As operações de IA serão consideradas material confidencial
A decisão da Anthropic de não remover as duas barreiras de segurança que havia estabelecido para sua IA provocou uma reação furiosa de Donald Trump. Embora o presidente americano tenha feito declarações elogiando a empresa, o incidente gerou um debate no Vale do Silício sobre os limites éticos da IA militar. "Eles querem ditar como nossas grandes forças armadas lutam e vencem guerras", declarou Trump.
A posição da Anthropic foi acompanhada por ativistas e trabalhadores do polo tecnológico americano. A manifestação mais clara veio de um grupo de 560 funcionários do Google, incluindo cerca de vinte vice-presidentes e diretores-gerais, que instaram a alta administração a não acatar as condições exigidas pela Casa Branca para a IA.
O anúncio do Pentágono sobre um acordo com gigantes da IA baseado no princípio de "qualquer uso operacional permitido por lei" é a resposta das elites do Vale do Silício, de Trump e do Departamento de Defesa para neutralizar o debate. "O Departamento de Defesa e seus parceiros estratégicos compartilham a convicção de que a liderança americana em IA é indispensável para a segurança nacional. Essa liderança depende de um ecossistema nacional robusto de desenvolvedores de modelos qualificados que permita o uso pleno e eficaz das capacidades de IA em apoio às missões do Departamento", afirma o comunicado.
Um dos pontos de crítica dos funcionários do Google é o fato de que as operações de IA se tornarão material confidencial. "Queremos que a IA beneficie a humanidade, e não que seja usada de forma desumana ou extremamente prejudicial", afirma a carta enviada ao CEO da empresa, Sundar Pichai. "Isso inclui armas autônomas letais e vigilância em massa, mas vai além disso", apontam, ecoando os argumentos da Anthropic: "A única maneira de garantir que o Google não esteja associado a tais danos é rejeitar qualquer carga de trabalho confidencial. Caso contrário, tais usos poderão ocorrer sem nosso conhecimento ou capacidade de impedi-los."
Em um memorando interno aos funcionários após a assinatura do acordo, Kent Walker, presidente de Assuntos Globais da Alphabet, afirmou que “manter o diálogo com os governos, inclusive em questões de segurança nacional, ajudará as democracias a se beneficiarem de tecnologias responsáveis”. “Temos orgulho de trabalhar com departamentos de defesa desde os primórdios do Google e continuamos acreditando que é importante apoiar a segurança nacional de maneira ponderada e responsável”, prosseguia o memorando, divulgado por veículos como o Financial Times.
Dentre as demais empresas, apenas a OpenAI forneceu detalhes sobre os limites de seu acordo com os militares. A empresa de Sam Altman afirma ter estabelecido três "linhas vermelhas": vigilância doméstica em massa, armas autônomas e tomada de decisão automatizada de alto risco. A declaração do Pentágono não faz menção a essas restrições.
Operações de combate, inteligência e operações internas
A declaração do Pentágono detalha que introduzirá os sistemas de IA dessas empresas em ambientes "IL6 e IL7", que correspondem a redes militares contendo informações classificadas no nível "Secreto" e superior. Explica também que o foco será em "três pilares fundamentais: operações de combate, inteligência e operações internas".
Este último grupo inclui a logística, a gestão de pessoal militar e civil dentro do Departamento de Guerra e seus direitos a licenças. Por outro lado, os dois primeiros pontos representam a integração definitiva da inteligência artificial no núcleo das atividades militares dos EUA. "Ela irá agilizar a síntese de dados, melhorar o conhecimento da situação e aprimorar a tomada de decisões para os combatentes em ambientes operacionais complexos", explica ele.
Em outras palavras, a IA decidirá ou recomendará quem atacar, quando e como, processando informações confidenciais em tempo real. "O acesso a um conjunto diversificado de recursos de IA provenientes da robusta infraestrutura tecnológica dos Estados Unidos fornecerá aos militares as ferramentas necessárias para agir com confiança e proteger a nação de qualquer ameaça", conclui o Pentágono.
Leia mais
- Destacamento 201, a unidade do Exército dos EUA liderada por executivos de tecnologia
- Trump está usando IA para travar suas guerras – este é um ponto de virada perigoso. Artigo de Chris Stokel-Walker
- “Ainda há muito a ser revelado sobre a IA que está sendo desenvolvida pela China e pelos EUA.” Entrevista com Ángel Gómez de Ágreda
- A inteligência artificial já está deixando a guerra mais horrível. Artigo de David Moscrop
- Tecnofascismo: do rádio de pilha nazista às redes antissociais, a monstruosa transformação humana. Entrevista especial com Vinício Carrilho Martinez
- No tecnofascismo contemporâneo, o neoliberalismo é um ponto de partida, não de chegada. Entrevista especial com Felipe Fortes
- Cruzadas à la carte. Artigo de Florian Besson
- Subimperialismo de plataforma: países do Sul Global se tornam hubs de superexploração dos trabalhadores e de extração de dados. Entrevista especial com Kenzo Soares Seto
- A filosofia da Técnica. Artigo de Jorge Alemán
- A cruzada fascista das Big Techs contra a democracia. Entrevista especial com Eugênio Bucci
- “As redes sociais são máquinas de subjetivação especialmente úteis à extrema-direita”. Entrevista com Rodrigo Nunes
- A quem interessa a demonização da política?
- A utopia neoliberal do capitalismo digital
- As big techs e o fascismo. Artigo de Eugênio Bucci
- “Os bilionários da tecnologia estão se preparando para a catástrofe que eles mesmos provocaram”. Entrevista com Douglas Rushkoff
- Byung-Chul Han, no Prêmio Princesa das Astúrias: "Nós nos tornamos uma ferramenta do smartphone: ele nos usa, não o contrário"
- Byung-Chul Han: “O neoliberalismo nos transformou em gado eleitoral”
- A refeudalização do capitalismo digital. Entrevista com Adam Arvidsson
- O Homo Deus e a obsolescência do ser humano