Pensadores católicos proeminentes redigem parecer em defesa da gigante da IA ​​Anthropic, que enfrenta dificuldades

Foto: TheDigitalArtist | pixabay

Mais Lidos

  • Drones e fuzileiros navais infiltrados: EUA planejam desembarque no Irã. Líder da Marinha morto. Artigo de Gianluca Di Feo

    LER MAIS
  • Conversamos com a repórter internacional Patricia Simón sobre como sobreviver emocional e politicamente num mundo onde o ódio e a desumanização são impostos, e sobre o ecofeminismo como um baluarte contra a onda reacionária que busca nos destruir

    O amor como ética pública e resistência. Entrevista com Patricia Simón

    LER MAIS
  • Cada vez mais perguntas surgem antes de uma Copa do Mundo ofuscada por Trump

    LER MAIS

Assine a Newsletter

Receba as notícias e atualizações do Instituto Humanitas Unisinos – IHU em primeira mão. Junte-se a nós!

Conheça nossa Política de Privacidade.

Revista ihu on-line

Natal. A poesia mística do Menino Deus no Brasil profundo

Edição: 558

Leia mais

O veneno automático e infinito do ódio e suas atualizações no século XXI

Edição: 557

Leia mais

Um caleidoscópio chamado Rio Grande do Sul

Edição: 556

Leia mais

20 Março 2026

Um grupo de proeminentes pensadores católicos uniu-se a uma batalha judicial sobre o uso ético da IA, em um caso que atraiu a atenção de líderes empresariais, constitucionalistas, políticos e do público em geral.

A reportagem é de Christopher R. Altieri, publicada por Crux, 18-03-2026.

A desenvolvedora de Inteligência Artificial Anthropic PBC, sediada em São Francisco, processou o Departamento de Guerra dos EUA devido aos esforços do Pentágono para punir a empresa por se recusar a permitir que as forças armadas americanas utilizem a tecnologia da Anthropic para vigilância em massa de cidadãos americanos ou para sistemas de armas autônomas letais – propósitos que a empresa considera inaceitáveis ​​no momento.

Especialistas em direito e políticas públicas de todo o espectro de opiniões concordam que o governo – e não um contratado do governo – tem o direito de decidir quais restrições de uso impor à tecnologia disponível e até mesmo qual tecnologia desenvolver, caso o governo encontre um parceiro disposto.

A Anthropic não deseja ser parceira do governo nos termos exigidos por ele, e agora o governo está tentando punir a Anthropic por sua recusa em continuar a parceria nessas condições.

Na visão da gigante da tecnologia, esses esforços violam o direito da Anthropic à liberdade de expressão, garantido pela Primeira Emenda, e o direito da empresa ao devido processo legal, garantido pela Quinta Emenda, além de excederem o escopo de outras leis estatutárias pertinentes.

A Anthropic entrou com dois processos judiciais, um no Tribunal Distrital dos EUA para o Distrito Norte da Califórnia e outro no tribunal federal de apelações em Washington, DC, alegando que o governo Trump violou os direitos da Primeira Emenda da empresa e aplicou indevidamente à Anthropic a designação de "risco na cadeia de suprimentos" – um rótulo geralmente reservado para adversários estrangeiros.

Agora, quatorze pensadores católicos se uniram a um parecer de amicus curiae – “amigo da corte” – apresentado na última sexta-feira ao Tribunal Distrital dos EUA para o Distrito Norte da Califórnia, em apoio à Anthropic.

Prelúdio para uma crise

Os sistemas de armas autônomas letaisLAWS, às vezes chamados de “robôs assassinos” – são controversos há gerações. Basicamente, são sistemas de armas que usam uma combinação de sensores e algoritmos digitais avançados para identificar alvos e atacá-los sem controle humano.

As Leis de Salvação têm sido controversas há gerações, e a Santa se opôs ao seu desenvolvimento em vários fóruns internacionais durante quase duas décadas.

Os EUA já possuem uma série de sistemas semiautônomos em seu arsenal, mas todos eles exigem um "humano no circuito", ou seja, uma pessoa de carne e osso para selecionar alvos e emitir comandos.

No entanto, as recentes mudanças na política de defesa dos EUA e a pressão do ritmo acelerado da corrida armamentista internacional tornaram tanto os desenvolvedores quanto os observadores extremamente cautelosos em relação aos esforços contínuos dos EUA para desenvolver, introduzir e implantar armas totalmente autônomas.

"Os sistemas de IA de ponta simplesmente não são confiáveis ​​o suficiente para alimentar armas totalmente autônomas", disse Dario Amodei, cofundador e CEO da Anthropic, em um comunicado no final do mês passado, quando a disputa com o Pentágono estava chegando ao ápice.

“Não forneceremos, conscientemente, um produto que coloque em risco os militares e civis americanos”, disse Amodei.

Amodei também alertou para a vigilância doméstica em massa.

“Uma IA poderosa”, disse ele, “torna possível reunir esses dados dispersos e individualmente inócuos em um retrato abrangente da vida de qualquer pessoa — automaticamente e em escala massiva”, o que criaria um estado de coisas incompatível com uma sociedade livre.

“A Anthropic, ao estabelecer limites claros para o uso de seus produtos em sistemas de vigilância em massa doméstica e armas autônomas, buscou manter padrões mínimos de conduta ética para o progresso técnico”, afirma o grupo de quatorze pensadores católicos no parecer jurídico.

“Quando a tecnologia é capaz de violar a vida, a dignidade e a liberdade”, afirmam, “é razoável estabelecer limites claros para o seu uso”.

“Essas fronteiras refletem cautela, não desafio”, afirmam os pensadores católicos no parecer jurídico, “e responsabilidade em vez de obstrução”.

“A guerra é uma atividade humana”, disse o teólogo moral Charles Camosy, da Universidade Católica da América, ao Crux Now, “uma atividade que exige supervisão humana direta”.

“As ações mortais em uma guerra, portanto, exigem que os seres humanos sejam os moralmente responsáveis ​​– e que assumam a responsabilidade moral – para que as ações em uma guerra sejam justas”, disse Camosy.

Joseph Vukov, professor de filosofia da Universidade Loyola de Chicago, conversou com o Crux Now sobre os aspectos práticos envolvidos no cálculo moral.

“Ao transferir a tomada de decisões letais dos humanos para as máquinas”, disse Vukov, “os Sistemas de Armas Letais Autônomas (LAWS, na sigla em inglês) tornam a atribuição de responsabilidade moral nebulosa”.

“Se nenhum ser humano estiver envolvido em uma decisão ruim tomada pela LAWS”, perguntou Vukov, “de quem você culpa?”

Camosy e Vukov foram dois dos quatro principais autores da declaração dos pensadores católicos ao tribunal.

Em seu parecer de amicus curiae [1], os signatários enquadraram a questão como “uma disputa específica, porém consequente, sobre se um desenvolvedor de sistemas avançados de IA pode manter limites fundamentados em certos usos de sua tecnologia – especificamente, armas autônomas letais e vigilância em massa de cidadãos americanos”.

O problema com as armas de vigilância em massa e a vigilância eletrônica

A legislação atual dos EUA não proíbe o desenvolvimento ou o uso de LAWS (Sistemas Aéreos de Armas de Fogo).

A atual política de defesa dos EUA exige que todos os sistemas – incluindo o LAWS – sejam projetados de forma a permitir que “comandantes e operadores exerçam níveis adequados de julgamento humano sobre o uso da força”.

Conforme observado em um relatório oficial do governo dos EUA de 2018, no entanto, "apropriado" é uma palavra que desempenha um papel fundamental.

O relatório de 2018 afirma que "'apropriado' é um termo flexível que reflete o fato de não existir um nível fixo e universal de julgamento humano que deva ser aplicado a todos os contextos".

“O que é 'apropriado' pode variar entre sistemas de armas, domínios de guerra, tipos de guerra, contextos operacionais e até mesmo entre diferentes funções em um sistema de armas”, observou o artigo.

Quando o governo solicitou o uso dos modelos de Inteligência Artificial da Anthropic para "todos os fins legais", sem exceção, a empresa ofereceu-se para permitir todos os usos legais, exceto vigilância em massa e sistemas de armas inteligentes.

O que constitui vigilância no sentido estritamente legal é, em si, uma questão espinhosa, visto que a maioria das leis atualmente em vigor foram promulgadas anos, ou mesmo décadas, antes do surgimento da IA.

“Vigilância”, explicou Dean Ball – pesquisador sênior da Foundation for American Innovation e autor do boletim informativo Hyperdimensional, que também atuou brevemente em 2025 como consultor sênior de políticas de IA e tecnologias emergentes para a Casa Branca de Trump – “é a coleta ou aquisição de informações privadas, mas isso não inclui informações disponíveis comercialmente”.

"Se você compra alguma coisa", disse Ball – ele estava falando no programa The Ezra Klein Show, do The New York Times – "se você compra um conjunto de dados de algum tipo e depois o analisa, isso não é necessariamente vigilância perante a lei."

“Há muitos dados disponíveis”, continuou Ball, “há muita informação que o mundo divulga – os resultados da sua pesquisa no Google, os dados de localização do seu smartphone, todas essas coisas.”

“O motivo pelo qual ninguém realmente analisa isso no governo”, continuou Ball, “não é tanto que eles não consigam adquirir e fazer isso”, mas “porque eles não têm o pessoal necessário”.

Em termos simples, a implementação de IA poderia contribuir muito para a solução desse problema.

“O problema com a IA é que ela lhes proporciona uma força de trabalho infinitamente escalável”, disse Ball a Klein, do The Times. “Assim”, afirmou, “todas as leis podem ser aplicadas à risca, com vigilância perfeita sobre tudo".

“E esse é um futuro assustador”, disse ele.

Em conversa com Klein, Ball também confirmou que o impasse sobre a vigilância em massa desempenhou um papel crucial no colapso das negociações entre o governo e a Anthropic, um fato amplamente divulgado no episódio de 6 de março do programa The Ezra Klein Show, no qual Ball participou, e fortemente sugerido pela declaração de Amodei em 26 de fevereiro.

“Apoiamos o uso da IA ​​para missões legítimas de inteligência estrangeira e contrainteligência”, disse Amodei. “No entanto, usar esses sistemas para vigilância doméstica em massa é incompatível com os valores democráticos”, continuou ele.

“A vigilância em massa impulsionada por IA apresenta riscos sérios e inéditos às nossas liberdades fundamentais”, afirmou Amodei. “Na medida em que essa vigilância é atualmente legal”, disse ele, “isso ocorre apenas porque a lei ainda não acompanhou o rápido crescimento das capacidades da IA.”

As objeções dos pensadores católicos à vigilância em massa – e seu apoio à Anthropic na luta contra o governo – estão enraizadas no direito à privacidade, que não é um direito absoluto ou irrestrito.

Trata-se, contudo, de um direito real que exige compreensão adequada e proteção cuidadosa em qualquer sociedade caracterizada pela liberdade ordenada.

“A privacidade não é um direito absoluto no ensinamento católico nem nos quadros teológicos e filosóficos mais gerais”, que os pensadores católicos que escreveram como amicus curiae endossam.

“No entanto, a vigilância em massa pelo Departamento de Guerra claramente ultrapassa os limites da privacidade, conforme descrita no pensamento católico, e, de forma mais geral, configuraria uma clara violação da dignidade humana”, afirmam.

Retaliação do governo

Normalmente, quando uma empresa não consegue fornecer ao governo um produto ou serviço que este deseja, as partes chegam a um acordo ou se separam.

No mês passado, porém, o Pentágono tomou a medida extraordinária de designar a Anthropic como um “risco à cadeia de suprimentos” – uma medida geralmente reservada para adversários estrangeiros suspeitos de representar um risco à segurança dos Estados Unidos.

A Anthropic é a primeira empresa dos EUA a receber a designação de risco na cadeia de suprimentos.

A IA Claude da Anthropic, no entanto, já está integrada em muitos sistemas militares dos EUA, em virtude de um contrato de 200 milhões de dólares que o governo agora anulou.

O Pentágono reconheceu que levará meses para desvincular e remover Claude dos sistemas de defesa dos EUA.

Além disso, a aplicação da designação de risco na cadeia de suprimentos pelo Pentágono pode representar uma escolha difícil para qualquer empresa que atualmente faça negócios com a Anthropic ou que esteja considerando oportunidades de negócios com a gigante da tecnologia: ou romper os laços com a Anthropic e fazer negócios com as forças armadas dos EUA, ou fazer negócios com a Anthropic e abrir mão de negócios com o Pentágono.

Brian Boyd, outro dos principais autores do parecer jurídico, que leciona e presta consultoria a diversas instituições de renome, incluindo o Instituto de Estudos Católicos Avançados da Universidade do Sul da Califórnia, disse ao Crux Now que considera a apresentação do parecer uma questão de cidadania responsável.

“Quando uma empresa imperfeita está disposta a abrir mão do lucro e assumir riscos para defender princípios básicos de prudência em combate e a privacidade dos cidadãos americanos, e é ameaçada pelo governo por fazê-lo, todos que estão em posição de se manifestar em sua defesa devem fazê-lo”, disse Boyd.

Alinhamento imperfeito e causa comum

Em seu parecer, os pensadores católicos reconhecem que as exclusões específicas solicitadas pela Anthropic refletiam “o julgamento técnico da empresa de que os sistemas de IA atuais ainda não são suficientemente confiáveis, interpretáveis ​​ou controláveis”.

Os sistemas ainda não podem "ser confiáveis ​​para tomar decisões que envolvam diretamente a perda de vidas humanas sem supervisão humana, ou para realizar vigilância em escala populacional em ambientes onde erros, vieses ou uso indevido possam causar danos irreversíveis".

Os quatorze membros católicos do Conselho de Amizade da Corte não acreditam que tais sistemas possam ser confiáveis ​​para tomar decisões como essa ou semelhantes.

“No geral”, disse Brian Green, especialista em ética tecnológica da Universidade de Santa Clara, que também participou e foi um dos autores do parecer jurídico, “a Anthropic leva a ética muito a sério e, pelo que pude perceber, está fazendo um bom trabalho para tornar sua IA ética”.

“No entanto”, disse Green, “a Anthropic não rejeita completamente a possibilidade de sua IA ser usada para armas de vigilância ativa no futuro, enquanto a Igreja Católica rejeita completamente as armas de vigilância ativa.”

“Essa é uma tensão que significa que, em algum momento, nossas duas organizações podem não mais concordar sobre esse assunto”, disse ele, “mas, por enquanto, nossas visões estão alinhadas, então devemos unir forças”.

Nota

[1] O documento pode ser acessado clicando aqui.

Leia mais