Anthropic versus Trump

Foto: Wikimedia Commons | The White House

Mais Lidos

  • “60% do déficit habitacional, ou seja, quase quatro milhões de domicílios, vivem nessa condição porque o gasto com aluguel é excessivo. As pessoas estão comprometendo a sua renda em mais de 30% com aluguel”, informa a arquiteta e urbanista

    Gasto excessivo com aluguel: “É disso que as pessoas tentam fugir quando vão morar nas favelas”. Entrevista com Karina Leitão

    LER MAIS
  • Povos indígenas: resistência nativa contra o agrocapitalismo. Destaques da Semana no IHUCast

    LER MAIS
  • A guerra de Trump e Netanyahu contra o Irã se intensifica e se expande com os ataques israelenses ao Hezbollah no Líbano

    LER MAIS

Assine a Newsletter

Receba as notícias e atualizações do Instituto Humanitas Unisinos – IHU em primeira mão. Junte-se a nós!

Conheça nossa Política de Privacidade.

Revista ihu on-line

Natal. A poesia mística do Menino Deus no Brasil profundo

Edição: 558

Leia mais

O veneno automático e infinito do ódio e suas atualizações no século XXI

Edição: 557

Leia mais

Um caleidoscópio chamado Rio Grande do Sul

Edição: 556

Leia mais

02 Março 2026

A empresa de Dario Amodei é a primeira a resistir a ser usada para cometer assassinatos e promover um sistema de vigilância inconstitucional.

A informação é de Marta Peirano, publicada por El País, 02-03-2026.

A partir do impasse entre a Anthropic e o Departamento de Defesa americano, podemos deduzir muitas coisas. A primeira é que o governo dos EUA está usando modelos de Inteligência Artificial para monitorar seus próprios cidadãos e pretende continuar fazendo isso, com a ajuda da Inteligência Artificial. É importante lembrar que esse foi o verdadeiro escândalo dos documentos de Snowden, não o governo monitorando Angela Merkel ou usando seus gigantes digitais para invadir nossa privacidade. Isso é literalmente trabalho de espiões. O resto do mundo é uma terra sem lei para agências como a NSA. O crime foi interceptar conversas de cidadãos americanos sem a permissão de um juiz, porque essas conversas são protegidas pela Quarta Emenda. Dito isso, neste fim de semana a Anthropic foi banida pelo próprio governo por se recusar a participar de um ato inconstitucional. E Dario Amodei, diretor da empresa, foi fabulosamente explícito, explicando com um "exemplo" o tipo de atividade da qual se recusa a participar.

A legislação dos EUA proíbe o governo de espionar diretamente seus próprios cidadãos, mas, diferentemente da Europa, nada impede que empresas privadas o façam. E nada impede o governo de comprar dados dessas empresas privadas (operadoras, redes sociais, corretoras de dados, etc.) e analisá-los em massa usando inteligência artificial. É exatamente isso que este governo vem fazendo em sua campanha para perseguir imigrantes, por meio da plataforma Palantir. Amodei afirmou, com cortesia, que essa é “uma dinâmica em que a vigilância doméstica em massa está ultrapassando a lei”.

O principal produto da Palantir, empresa fundada por Peter Thiel e liderada por Alex Karp, é uma plataforma de software para agências de defesa, inteligência e segurança pública chamada Palantir Gotham. Sua função é integrar bancos de dados de todos os tipos, formatos e origens em um único sistema que permite aos usuários compreender as relações entre dados díspares e realizar análises de padrões, mapeamento geoespacial, linhas do tempo e, sobretudo, buscas complexas. Quando a Anthropic assinou o contrato para "operacionalizar o uso de Claude na plataforma de IA da Palantir", o produto foi renomeado como uma "plataforma de inteligência artificial para tomada de decisões críticas". No último mês, algumas dessas decisões críticas incluíram o sequestro de Nicolás Maduro, as operações do ICE e a Operação Fúria Épica, que resultou na morte, entre outros, de Ali Khamenei, o Líder Supremo do Irã.

É nesse contexto que a Anthropic se recusou a automatizar armas letais autônomas, não por razões morais ou legais, mas estritamente técnicas. Seu argumento é que os modelos atuais, incluindo Claude, mas também Gemini, Grok e GPT, não são confiáveis, controláveis ​​ou interpretáveis ​​o suficiente para delegar o disparo de uma arma automática, e provavelmente nunca serão. Isso porque são modelos probabilísticos que podem ser manipulados, atacar pessoas erradas, interpretar mal sinais ambíguos e tendem a "alucinar". Eles podem inventar alvos com a mesma facilidade com que inventam livros que nunca foram escritos ou batalhas que nunca aconteceram. Sem entender completamente como tomam decisões e sem poder garantir que obedeçam a ordens e respeitem limites em cenários adversários, corremos o risco de uma escalada descontrolada. Felizmente, a Anthropic não quer ser responsável. Infelizmente, a OpenAI quer.

Leia mais