09 Março 2026
Donald Trump ordenou o cancelamento de todos os contratos com a Anthropic devido à insistência da empresa de tecnologia em impor restrições ao uso de sua tecnologia.
A informação é de Jesus Servulo Gonzalez, publicada por El País, 08-03-2026.
Em 1983, o filme Jogos de Guerra tornou-se um sucesso de bilheteria. Estrelado por um jovencíssimo Matthew Broderick, o longa conta a história de um hacker adolescente que enfrenta um supercomputador controlado por uma inteligência artificial chamada Joshua. A máquina, que administrava o arsenal de mísseis nucleares dos Estados Unidos, estava fora de controle e ameaçava desencadear uma guerra atômica. Com o tempo, o filme se tornou um clássico cult por antecipar, por várias gerações, os riscos de conceder a uma máquina o poder da guerra sem supervisão humana.
Quatro décadas após o lançamento desse filme icônico, os EUA parecem estar revisitando alguns dos dilemas morais apresentados pelas imagens dirigidas por John Badham. Os limites do uso da inteligência artificial para fins militares estão alimentando um debate global com consequências reais.
O presidente dos EUA, Donald Trump, ordenou o cancelamento de todos os contratos com a Anthropic, uma empresa líder em inteligência artificial (IA), em uma decisão controversa com implicações políticas, comerciais e tecnológicas. A Casa Branca justifica sua decisão de excluir a Anthropic citando a recusa de seu fundador, Dario Amodei, em liberar todas as funcionalidades de sua ferramenta de IA, chamada Claude. Amodei estabeleceu duas linhas vermelhas essenciais que não permitirá para o uso de sua tecnologia: ela não deve ser usada para vigilância em massa de cidadãos, nem para a operação de armas autônomas sem controle humano. Desta vez, em uma medida sem precedentes, é a empresa que está definindo os limites para o governo.
“Os eventos dos últimos dias marcaram um momento decisivo para a independência das empresas privadas de IA em relação ao governo dos EUA e deixaram claro que, sem legislação, o uso dessas ferramentas para guerra e vigilância não é uma questão de ‘se’, mas de ‘quando’”, afirma Adam Cooner, analista do Center for American Progress. “Também foi mais um exemplo da tentativa do governo Trump de abusar de seu poder e tomar medidas provavelmente ilegais para tentar destruir um laboratório de IA na fronteira que discordava do governo”, acrescenta.
O término dos contratos das forças armadas dos EUA com a Anthropic é uma questão delicada. Até o momento, Claude é a única IA usada pelo Pentágono para gerenciar arquivos confidenciais na nuvem. Comandantes militares usaram Claude durante as operações para capturar o ex-presidente venezuelano Nicolás Maduro e sua esposa em Caracas. Eles também o estão empregando no ataque dos EUA ao Irã para derrubar o regime teocrático.
Claude, o alter ego de Joshua no filme Jogos de Guerra, é essencial para o sistema inteligente Maven. Este sofisticado programa, criado pela Palantir e pela Anthropic, coleta dados de inúmeras fontes digitais para analisar e auxiliar as forças armadas na tomada de decisões. Trata-se da tecnologia mais avançada já utilizada em operações militares. Ela permite que os militares obtenham informações valiosas a partir de uma vasta quantidade de dados confidenciais provenientes de satélites, vigilância e outras fontes digitais, que são utilizadas para o planejamento operacional e a identificação de alvos em tempo real no conflito Irã-Contras.
Uma decisão delicada
O uso de Claude nesta operação é tão significativo que representa um desafio para o Pentágono, que precisa decidir se abandona essa ferramenta de IA após o término da moratória de seis meses concedida por Trump. No entanto, diversos funcionários do governo reconhecem que Claude é superior a seus concorrentes, como ChatGPT (OpenAI), Gemini (Google) e Grok (xAI), e admitem que remover as ferramentas da Anthropic de suas operações será uma tarefa complexa.
O caso Anthropic levanta um dilema que afeta não apenas a guerra, mas também o próprio desenvolvimento da tecnologia: onde estão os limites da IA, com questões éticas e morais ainda a serem resolvidas e, provavelmente, legisladas? Mas na indústria da IA, as coisas evoluem tão rapidamente que algumas perguntas permanecem sem resposta antes que um novo avanço tecnológico levante novas questões. Amodei, agora um guru, afirma que a IA está melhorando exponencialmente a cada semana, a uma velocidade sem precedentes, o que alimenta os riscos que cercam seu uso.
As relações entre a Casa Branca e a Anthropic nem sempre foram tensas. Há um ano, a empresa de Dario Amodei assinou um contrato de US$ 200 milhões (172 milhões de euros) com o Pentágono para gerenciar arquivos confidenciais em um ambiente de nuvem seguro. Claude é a IA mais avançada para ambientes corporativos, ostentando padrões de segurança mais elevados do que seus concorrentes. Mas, em 9 de janeiro, o Secretário de Defesa Pete Hegseth apresentou uma nova estratégia de segurança que incluía uma seção especial sobre a promoção da IA em atividades militares. Foi aí que as dúvidas começaram.
As suspeitas transformaram-se em desconfiança quando o Pentágono tomou conhecimento de uma conversa entre um funcionário da Anthropic e um funcionário da Palantir. O primeiro perguntava se Claude havia sido usado na operação para capturar Maduro.
O Pentágono acredita que as empresas contratadas pela defesa não devem impor limites ao uso de seus serviços. Utiliza a analogia das bombas: um fabricante de munições não pergunta contra quem um determinado projétil será disparado ou em que condições será fornecido; cabe aos militares determinar seu uso. E levanta a questão: “O que um governo deve fazer se uma empresa privada desenvolver uma arma nuclear usando inteligência artificial? É isso que estamos vendo.”
Hegseth, que renomeou seu departamento para Departamento de Guerra (DoW), convocou Amodei ao Pentágono para convencê-lo de que o uso do Claude não poderia ser limitado e poderia ser empregado “para qualquer propósito legal”. Essa é a expressão jurídica usada para assegurar-lhe que o sistema não seria usado para vigilância em massa ou armamento autônomo sem supervisão. Mas a solução não satisfez Amodei. Durante a reunião, Hegseth lhe deu um ultimato: se ele não aceitasse as condições em três dias, invocaria a Lei de Produção de Defesa de 1950, usada durante a Guerra da Coreia, para forçar a empresa a colaborar com o governo sem restrições. Ele também ameaçou designar a Anthropic como um “risco na cadeia de suprimentos”, uma medida extraordinária que proibiria a empresa de fazer negócios com outros contratistas militares.
Vale lembrar que Hegseth, ex-astro da Fox News, reuniu os principais líderes militares no final de setembro para explicar sua visão para as Forças Armadas dos EUA: um exército composto por "guerreiros", não por "defensores". Ele então apresentou uma declaração como princípio orientador de sua liderança: "As Forças Armadas dos EUA não estão aqui para proteger os sentimentos de ninguém, mas para proteger nosso país, e não seremos politicamente corretos quando se trata de defender a liberdade americana."
Possíveis erros
A escalada verbal entre os dois se intensificou. Amodei afirma que as ameaças do governo Trump são contraditórias. Por um lado, alegam que Claude era essencial e, por outro, que é dispensável. Além disso, esclarece que não se opõe categoricamente a armas totalmente autônomas, uma medida que poderia violar o direito internacional, mas sim que a tecnologia ainda não está madura o suficiente para evitar erros. Em relação à vigilância, destaca que, embora o Pentágono assegure que cumprirá a lei, o problema é que a legislação não está adaptada ao uso de inteligência artificial.
Segundo Amodei, o governo já consegue coletar informações, realizar varreduras em massa, reunir dados biométricos, impressões digitais, informações fiscais, interceptar ligações telefônicas e geolocalizar indivíduos, entre outras coisas. A IA pode agregar esses dados dispersos e inofensivos individualmente para obter um retrato completo da vida de qualquer pessoa, de forma automática e em larga escala.
Amodei oferece o seguinte exemplo: “Um enxame de milhões ou bilhões de drones armados totalmente automatizados, controlados localmente por uma IA poderosa e coordenados estrategicamente em todo o mundo por uma IA ainda mais poderosa, poderia constituir um exército imbatível, capaz tanto de derrotar qualquer exército do mundo quanto de suprimir a dissidência dentro de um país, rastreando cada cidadão.” Haveria um risco muito maior de países democráticos voltarem exércitos de IA contra suas próprias populações, aponta Amodei, expressando preocupação com a possibilidade de governos comprarem quantidades massivas de dados de cidadãos para criar perfis de IA com base em filiação política, descontentamento, oposição e assim por diante.
O Pentágono, por sua vez, está considerando a possibilidade de um ataque surpresa. "E se um míssil balístico intercontinental carregando armas nucleares estivesse se dirigindo aos Estados Unidos com apenas 90 segundos de aviso prévio, e a IA da Anthropic fosse a única maneira de acionar uma resposta de mísseis para salvar o país, mas as medidas de segurança da empresa a impedissem?", ponderou um alto funcionário em um telefonema para a Anthropic em dezembro. Os relatos sobre a resposta são contraditórios. O Departamento de Guerra afirma que Amodei respondeu "ligue para mim", uma possibilidade que os deixou apreensivos, pois significaria deixar a resposta militar a um ataque nas mãos de um empresário. A Anthropic sustenta que o Pentágono poderia usar suas ferramentas de IA para defesa antimíssil e operações cibernéticas sem limitações em tais casos.
Antes do prazo estipulado por Hegseth expirar, Trump tomou uma atitude decisiva. “Os Estados Unidos da América jamais permitirão que uma corporação radical de esquerda, ‘woke’, decida como nossas forças armadas lutam e vencem guerras! Essa decisão pertence ao comandante-em-chefe e aos líderes extraordinários que nomeio para comandar nossas Forças Armadas”, escreveu ele em sua conta na rede social Truth.
Dessa forma, o governo Trump rescindiu todos os contratos com a Anthropic, mas concedeu um período de carência de seis meses para o desengajamento sem causar grandes transtornos. Na mesma noite, a OpenAI, concorrente da Anthropic, anunciou um contrato de US$ 200 milhões com o Pentágono para gerenciar arquivos confidenciais, semelhante ao que a empresa de Amodei fazia.
“Nenhum contratado, fornecedor ou parceiro que faça negócios com as Forças Armadas dos EUA poderá realizar qualquer atividade comercial com a Anthropic”, escreveu Hegseth na revista X, cumprindo sua ameaça. A Anthropic anunciou que processaria a Casa Branca por quebra de contrato e por classificá-la como um risco para a cadeia de suprimentos. O contrato com o Pentágono não representa muito para uma empresa avaliada em mais de US$ 350 bilhões, com receita anual próxima a US$ 20 bilhões, mas a Anthropic possui uma vasta carteira de clientes, incluindo Amazon, Boeing, Lockheed Martin, Palantir e outras, com fortes laços com o governo dos EUA. Se Trump mantiver sua palavra, será fatal para Claude. Amodei argumenta que a proibição de contratos com outras empresas se aplicaria apenas a usos militares, o que amenizaria o impacto financeiro. Mas isso ainda está por ser visto. A CNBC noticiou esta semana que diversas empresas de tecnologia de defesa estão pedindo a seus funcionários que parem de usar o Claude, da Anthropic, e migrem para outros modelos de IA.
A inclusão da Anthropic na lista negra do governo é extremamente incomum para uma empresa americana, e essa medida já havia sido utilizada em casos como o da Huawei e da ZTE, com supostas ligações com a China, ou o da empresa de cibersegurança Kaspersky, ligada a Moscou. Por esse motivo, e devido às potenciais consequências do rompimento de relações com a Anthropic, o Information Technology Industry Council (ITI), uma organização que reúne empresas de tecnologia como Nvidia, AMD, Google e Apple, enviou uma carta a Hegseth expressando sua preocupação com a designação de uma empresa americana como risco para a cadeia de suprimentos.
“Mesmo que afete diretamente apenas a Anthropic, a inclusão da empresa na lista negra também sinalizaria para inúmeras outras empresas o que o governo está disposto a fazer para impor certas ações aos seus produtos, desencadeando um efeito dominó neste momento crítico do desenvolvimento tecnológico. O resultado poderia prejudicar não apenas os avanços aqui nos Estados Unidos, mas também o sucesso global de líderes em IA como a Anthropic”, explica Jennifer Huddleston, pesquisadora sênior em política tecnológica do Cato Institute.
Origens diferentes
Para entender o conflito, é necessário conhecer as origens de ambas as empresas. A Anthropic foi fundada em 2021 por sete pesquisadores que deixaram a OpenAI por motivos éticos, alarmados com os problemas de segurança do ChatGPT. Eles defendem o compromisso moral no desenvolvimento de IA, dotando-a de uma "constituição", testando-a para evitar erros éticos e, embora tenham recentemente flexibilizado as barreiras de segurança para acelerar o desenvolvimento dos negócios, insistem que a IA deve ser segura para a sociedade.
Há também uma dimensão política. Amodei apoiou Joe Biden e Kamala Harris na última eleição presidencial. Ele desafiou Trump em diversas ocasiões, defendendo uma maior regulamentação da IA. Criticou Trump quando o presidente americano permitiu a venda de chips da Nvidia para a China. "É como vender armas nucleares para a Coreia do Norte", disse ele algumas semanas atrás em Davos. Além disso, ele contratou vários funcionários de alto escalão para o governo Biden. Enquanto isso, Sam Altman, chefe da OpenAI, é amigo de Elon Musk, fundador da Tesla, e tem laços estreitos com o círculo de Trump.
“A governança do setor privado não é suficiente para conter o uso e o potencial abuso da IA avançada pelo governo. O Congresso não pode esperar para agir e deve começar a realizar audiências para investigar as ações do governo e desenvolver legislação para proteger os cidadãos da vigilância em massa”, destaca Conner (CAP).
Enquanto as bombas continuam a cair sobre Teerã com a ajuda de Claude, Amodei ainda negocia com o Pentágono para recuperar o contrato rompido por Trump, conforme noticiado esta semana pelo Financial Times. Mas não será fácil devido à acalorada troca de farpas entre as duas partes. Emil Michael, diretor de tecnologia do Departamento de Defesa, acusou Amodei de ser um "mentiroso", dizendo: "Ele quer brincar de Deus".
“A indústria sofreu danos irreparáveis. Mesmo sob a classificação de risco mais rigorosa da cadeia de suprimentos, o governo dos EUA continua afirmando que tratará você como um adversário estrangeiro por se recusar a cumprir seus termos comerciais. Simplesmente por ter ideias diferentes, expressá-las em debates e materializar esses debates em decisões sobre implantar ou não seus próprios recursos. Cada um desses aspectos é fundamental para nossa república, e cada um foi atacado pelo Departamento de Guerra na semana passada. A maioria das corporações, atores políticos e outros terão que operar sob a premissa de que a lógica tribal prevalecerá”, observa Dean W. Ball, que foi consultor sênior de políticas no Escritório de Política Científica e Tecnológica da Casa Branca.
Leia mais
- Um confronto entre o Pentágono e a Anthropic e os perigos da guerra com IA. Artigo de Kevin Clarke
- Um apelo à consciência. Artigo de Blase J. Cupich
- Pentágono pressiona startup a ceder IA para fins militares
- “A inteligência artificial é interessante demais para ser deixada nas mãos do surgimento da economia do desperdício”. Entrevista com Jussi Parikka
- Contra a captura financeira do desejo, a ruptura e a imprevisibilidade da arte. Entrevista especial com Hernán Borisonik
- Antropomorfização da Inteligência Artificial: ainda distante da realidade. Entrevista especial com Anderson Röhe
- No começo e no “fim” era o verbo: as implicações da IA na condição humana. Entrevista especial com Lucia Santaella
- DeepSeek e a Transformação da Inteligência Artificial. Artigo de Lucia Santaella, Fabiana Raulino e Kalynka Cruz
- O segredo sujo da inteligência artificial
- Inteligência Artificial é uma ferramenta muito útil, mas não é inteligente. Entrevista especial com Walter Carnielli
- Pensar a IA eticamente é refletir sobre o tipo de humanidade que queremos construir para o futuro. Entrevista especial com Steven S. Gouveia
- ChatGPT: entenda como funciona a inteligência artificial do momento - e os riscos que ela traz
- Desafios e possibilidades na era da Inteligência Artificial. Entrevista especial com Rodrigo Petronio
- A humanidade do humano não se esgota no sapiens. Entrevista especial com Rodrigo Petronio
- Mesologia: uma ontologia em cujo centro está a categoria “relação”. Entrevista especial com Rodrigo Petronio
- Gaia, Antropoceno e natureza: três conceitos para compreender a transição em curso. Entrevista especial com Rodrigo Petronio
- “Não há regimes de arte, há arte contra seus próprios regimes”. Entrevista especial com Manuel Moyano Palacio
- Deep-fake, a arma radical contra a democracia
- O desafio do século XXI. “A técnica pode estar a serviço da ciência e não a ciência a serviço da técnica”. Comentário de Rodrigo Petronio
- Yuval Noah Harari: “Existe um potencial totalitário na inteligência artificial nunca antes visto”
- A inteligência artificial não é um cineasta, mas pode manipular as nossas emoções
- A perigosa aliança da inteligência artificial com a tecnologia militar. Artigo de Claude Serfati