De “esquerdistas malucos” a “muito inteligentes e úteis”: o que está acontecendo entre Trump e a startup de IA Anthropic?

Mais Lidos

  • Tecnofascismo, dissenso e a gramática da dignidade. Entrevista especial com Donatella Di Cesare

    LER MAIS
  • Uma (nova) história do deus - Flávio, cristofascista ‘escolhido’ e totalmente crente. Artigo de Fábio Py

    LER MAIS
  • Interesses particulares descolados de apreciação profunda e respeitosa transformaram a cidade em um canteiro de obras que muitas vezes desconsideram o impacto ambiental e social, priorizando apenas o luxo e o lucro. História da cidade está se perdendo

    “Torres e sua natureza estão sendo assaltadas, negligenciadas e transmutadas”. Entrevista especial com Lara Lutzenberger

    LER MAIS

Revista ihu on-line

Natal. A poesia mística do Menino Deus no Brasil profundo

Edição: 558

Leia mais

O veneno automático e infinito do ódio e suas atualizações no século XXI

Edição: 557

Leia mais

Um caleidoscópio chamado Rio Grande do Sul

Edição: 556

Leia mais

25 Abril 2026

A empresa que reabriu o debate sobre os limites éticos da inteligência artificial está reconquistando a Casa Branca após apresentar o Claude Mythos, um modelo que pode revolucionar a segurança cibernética global.

A reportagem é de Carlos del Castillo, publicada por elDiario.es, 23-04-2026.

Na efervescente indústria da inteligência artificial, é difícil acompanhar todos os atores se não se é um usuário habitual de suas ferramentas. Sobre a Anthropic, uma das startups mais avançadas do setor, a primeira referência que parte da opinião pública recebeu veio de uma grande bronca de Donald Trump. Uma "empresa de esquerda radical e woke" dirigida por "loucos esquerdistas" cujo "egoísmo está colocando em risco vidas americanas" e que aspira, segundo o presidente norte-americano, a "ditar como o nosso grande exército luta e vence guerras".

O motivo que desencadeou a reprimenda foi a guerra do Irã. No fim de semana em que começaram os bombardeios americanos sobre o país, a Anthropic se recusou a suspender algumas restrições que pesavam sobre o uso militar de sua IA. Segundo a empresa e a mídia norte-americana, esses limites eram, especificamente, dois: o que impede que seja usada para guiar armamento autônomo e o que a bloqueia para vigilância em massa da população.

Isso ocorreu há dois meses. Esta semana, Trump se referiu à startup como "um grupo de pessoas muito inteligentes", que "podem ser de grande utilidade". "Gosto de pessoas com alto coeficiente intelectual, e elas sem dúvida o têm", diz agora o republicano sobre a cúpula da Anthropic. "Tendem a ser de esquerda, de esquerda radical, mas nos entendemos bem com elas", admite: "Acho que estão entrando nos trilhos."

O que ocorreu entre as duas declarações? Segundo Trump, uma reunião na Casa Branca em que mantiveram "conversas muito boas" com a Anthropic. Mas há algo mais que o republicano não cita: a emergência de um modelo de inteligência artificial que poderia levar a cibersegurança mundial a um novo patamar. Ou ser o pior pesadelo de qualquer sistema informático, dependendo de quem o controle.

O antes e o depois do Claude Mythos

Na última semana de março, a Anthropic comunicou que havia desenvolvido o Claude Mythos, um modelo de inteligência artificial que, segundo afirma, possui uma capacidade sem precedentes para identificar e explorar vulnerabilidades nos principais sistemas operacionais e navegadores web — melhor que os humanos mais habilidosos.

Por esse motivo, seu lançamento foi restringido a um punhado de empresas de confiança, com o objetivo de que pudessem analisar sua cibersegurança e impedir que o Claude Mythos desencadeasse uma campanha de ataques informáticos em larga escala. Primeiro foram as grandes tecnológicas norte-americanas, depois os bancos do país, e mais recentemente os bancos britânicos.

Até o momento, essa lista de parceiros praticamente não deu detalhes sobre o funcionamento do Claude Mythos. Amazon, Microsoft ou Google (investidores diretos da Anthropic) ou bancos como Goldman Sachs, JPMorgan, Citigroup ou Bank of America se limitaram a fazer declarações estratégicas sobre a importância da cibersegurança.

A única que forneceu números foi a Mozilla, a fundação que desenvolve o navegador Firefox, que publicou um patch para 271 vulnerabilidades detectadas pelo Mythos. "As vulnerabilidades informáticas são finitas, e estamos entrando em um mundo onde finalmente poderemos encontrá-las todas", afirmou sobre as capacidades desse tipo de modelos.

"A única coisa que se sabe é que é uma ferramenta superpotente", explica Rafael López, pesquisador de cibersegurança da firma Checkpoint. "Se antes você poderia levar um mês para encontrar vulnerabilidades de um produto, aqui estamos falando de horas." "Pode deixar mais de um aplicativo e mais de um sistema de segurança em situação difícil, mas não é tão espetacular como quiseram vender", questiona o especialista: "Continuarão sendo necessárias pessoas que revisem que tudo o que está dizendo é correto, embora esteja claro que vai ajudar muitíssimo e pode tornar tudo muito mais fácil."

Essa falta de detalhes sobre as capacidades reais do Mythos alimentou suspeitas de que tudo o que está acontecendo ao seu redor poderia ter um componente propagandístico. E um dos primeiros a apontar nessa direção foi Sam Altman, diretor executivo da OpenAI, que também foi acusada múltiplas vezes de usar a seu favor o marketing do medo. "É uma estratégia de marketing incrível dizer: 'Construímos uma bomba, estamos prestes a lançá-la sobre sua cabeça, venderemos um abrigo antibombas por 100 milhões de dólares que você precisa para proteger todos os seus bens, mas só se te escolhermos como cliente'", criticou Altman, que há dois anos comparou o desenvolvimento da IA com o Projeto Manhattan, que derivou na criação da bomba atômica.

A ética da Anthropic e a desvantagem estratégica com a China

Quando Trump atacou a Anthropic há dois meses, seu golpe não ficou na dialética. Também ordenou classificá-la como "um risco para a cadeia de suprimentos", o que implica que nem ela nem qualquer outra empresa que tenha relação com ela pode ser contratada pela administração. Na prática, equivale a um assassinato corporativo.

A Anthropic levou a decisão aos tribunais e conseguiu suspendê-la cautelarmente. Pode ser que a irrupção do Claude Mythos tenha lembrado Trump dos riscos de condenar uma de suas empresas de IA mais avançadas. Mas para entender por que sua reação inicial foi tão contundente, é preciso olhar para a China.

Na gigante asiática não se concebe que uma empresa possa colocar limites ao uso militar de sua tecnologia, como fez a Anthropic. "O sistema chinês parte da premissa de que qualquer desenvolvimento civil tem uma aplicação militar desde o primeiro dia, e vice-versa", explica Claudio Feijóo, professor da Universidade Politécnica de Madri, especializado em economia e tecnologia chinesas.

No Ocidente, explica o especialista, costuma-se falar em "tecnologias duais" quando podem ser empregadas em ambos os campos. Na China, ao contrário, essa conexão é dada como certa e está integrada na própria lei estatal por meio do conceito de "fusão civil-militar". "Se aplica a todos os níveis da sociedade", acrescenta Feijóo, envolvendo diretamente tanto "as universidades" quanto "as empresas de ponta em tecnologia".

É sob essa perspectiva que a reação furibunda inicial de Donald Trump ganha sentido estratégico. O temor de fundo na Casa Branca é o "efeito contágio": o medo de que a rebelião ética da Anthropic sirva de exemplo para que os funcionários de outras corporações-chave se recusem a colaborar com o Pentágono, como ocorreu no passado em multinacionais como a Google.

Como adverte Feijóo, trata-se de mais uma prova de que o mundo está se "chinificando", ao colocar "a segurança nacional acima de qualquer outra coisa". Quando o Estado invoca a carta da segurança, "perde-se a racionalidade" e a mensagem às empresas é clara: "todos na fila e a cumprir o que é necessário para o país".

Um acordo que ninguém quer assinar

Se bem que a assimetria entre o Partido Comunista Chinês e a Casa Branca no controle que podem exercer sobre suas empresas tecnológicas é real, o problema reside na desconfiança mútua das duas superpotências. No âmbito da defesa, existe há anos uma iniciativa internacional para o Uso Responsável da Inteligência Artificial no Âmbito Militar (REAIM, pela sua sigla em inglês) que busca garantir que haja sempre "uma pessoa no circuito". O objetivo é que nenhum sistema autônomo ataque sem supervisão humana.

O acordo foi impulsionado pela Coreia do Sul e pelos Países Baixos e foi ratificado por dezenas de países, entre eles a Espanha. Mas na lista não estão Washington, nem Pequim, nem Moscou. "Ninguém quer assiná-lo porque ninguém confia que os outros estejam cumprindo", explica Feijóo. "Quando as pessoas não querem assinar um acordo relacionado com o controle da inteligência artificial no setor de defesa", conclui, "o que isso faz pensar é que já estão fazendo isso."

Leia mais