Teólogos morais católicos e especialistas em ética apoiam a abordagem antropogênica no embate governamental sobre IA

Foto: Saradasish Pradhan/Unsplash

Mais Lidos

  • Thiel leva suas palestras sobre o Anticristo à porta do Vaticano, e as instituições católicas recuam

    LER MAIS
  • “Em uma sociedade capitalista, nosso cansaço é político”. Entrevista com Romain Huët

    LER MAIS
  • Em meio à escalada autoritária de Trump contra países com recursos estratégicos ao seu país, Brasil começa a desenvolver sua Estratégia Nacional de Terras Raras

    Brasil e o novo regime global de governança mineral. Entrevista especial com Edna Aparecida da Silva

    LER MAIS

Assine a Newsletter

Receba as notícias e atualizações do Instituto Humanitas Unisinos – IHU em primeira mão. Junte-se a nós!

Conheça nossa Política de Privacidade.

Revista ihu on-line

Natal. A poesia mística do Menino Deus no Brasil profundo

Edição: 558

Leia mais

O veneno automático e infinito do ódio e suas atualizações no século XXI

Edição: 557

Leia mais

Um caleidoscópio chamado Rio Grande do Sul

Edição: 556

Leia mais

17 Março 2026

Um grupo de teólogos morais e especialistas em ética católicos afirmou em 13 de março que a gigante da inteligência artificial Anthropic "estava agindo como uma empresa cidadã responsável e moral" e "não como uma ameaça à segurança da cadeia de suprimentos americana" em sua decisão de manter limites em relação ao uso de sua tecnologia no que diz respeito a armas autônomas e vigilância em massa de cidadãos americanos.

A reportagem é publicada por OSV News e reproduzida por National Catholic Reporter, 14-03-2026.

Quatorze especialistas e acadêmicos em teologia moral católica, filosofia e pensamento social apresentaram um parecer jurídico ("amicus curiae") em apoio à Anthropic em seu processo contra o Departamento de Guerra dos EUA (Departamento de Defesa). A Anthropic entrou com a ação contra o Pentágono em 9 de março, depois que o presidente Donald Trump ordenou, em 27 de fevereiro, que as agências governamentais deixassem de trabalhar com a empresa de tecnologia em meio a uma divergência crítica de opiniões sobre os usos aceitáveis ​​da tecnologia pelo departamento. O parecer foi apresentado, escreveram eles, "para oferecer ao Tribunal uma perspectiva fundamentada em uma longa tradição moral que se relaciona diretamente com as questões levantadas por este caso, mantendo-se atenta aos fatos e às realidades técnicas da inteligência artificial moderna".

O argumento principal do documento foi elaborado por quatro acadêmicos: Charles Camosy, professor associado de teologia moral na Universidade Católica da América, em Washington; Joseph Vukov, professor associado de filosofia e diretor associado do Centro Hank para o Patrimônio Intelectual Católico da Universidade Loyola de Chicago; Brian JA Boyd, teólogo moral e acadêmico em diversas instituições católicas; e Brian Patrick Green, professor de ética na Escola de Engenharia da Universidade de Santa Clara, na Califórnia.

Em relação ao uso de IA para vigilância em massa de americanos, os acadêmicos — referidos no documento como "Teólogos Morais e Éticos Católicos" — disseram estar "alinhados" com a objeção da Anthropic a tal uso, com base no ensinamento católico sobre privacidade e subsidiariedade.

"O Catecismo da Igreja Católica afirma: 'Ninguém é obrigado a revelar a verdade a quem não tem o direito de conhecê-la'. Em 2023, o Papa Francisco insistiu igualmente que o mundo precisa de um tratado internacional para regulamentar a IA, especialmente com a ascensão do que ele chamou de 'sociedade da vigilância'", escreveram eles. "Essa compreensão da privacidade deriva do ensinamento da Igreja sobre a dignidade da pessoa humana" — um ensinamento central da doutrina social da Igreja que "fundamenta os direitos humanos individuais", "preserva as relações humanas como um espaço sagrado" e "protege as comunicações dentro dessas relações".

"A intromissão do governo (e especialmente dos militares) nesse espaço, e o uso de comunicações privadas para outros fins, prejudicam o bem das relações humanas e, em última instância, a dignidade das pessoas envolvidas nessas relações", escreveram eles. "É um governo totalitário aquele que trata os seres humanos como meros objetos e as relações humanas como meras fontes de dados — atitudes características do 'paradigma tecnocrático' contra o qual o pensamento católico adverte."

Citando a encíclica Quadragesimo Anno, de 1931, do Papa Pio XI, os estudiosos católicos afirmaram que o princípio católico da subsidiariedade "também se opõe à ideia de vigilância em massa específica".

"A vigilância em massa concentra o poder de monitorar e julgar indivíduos nas mãos de uma autoridade central remota. Essa transferência de poder, do local para o central, prejudica a autonomia humana — incluindo a das forças policiais e de outros que estão mais próximos das comunidades onde as pessoas vivem", escreveram. "Essa transferência corre o risco de 'desempoderar' os indivíduos, que ficam presos em uma burocracia kafkiana movida por inteligência artificial, que nada sabe sobre sua existência cotidiana concreta. Também mina os governos estaduais e locais, que não só têm maior probabilidade de entender o contexto melhor do que uma IA distante, como também precisam conviver com os efeitos dessas ações. Além disso, a vigilância centralizada pode servir de trampolim para o totalitarismo, ao qual a Igreja se opõe veementemente devido às ameaças que representa para a dignidade humana."

Em relação à oposição da Anthropic ao desejo do Departamento de Defesa de usar suas ferramentas de IA para "selecionar e atacar alvos sem supervisão humana significativa", os acadêmicos afirmaram que "o uso de armas autônomas dirigidas por IA, por definição, não atende às condições de jus in bello necessárias para que os atos de guerra sejam moralmente lícitos no pensamento católico".

"Para que qualquer ato violento seja justificado sob as condições de uma guerra justa, por exemplo, um julgamento humano específico deve ser feito sobre se a força empregada é proporcional aos objetivos militares legítimos a serem alcançados", afirmaram. "Um julgamento humano específico também deve ser feito sobre a imunidade de não combatentes. O envolvimento humano é crucial porque os julgamentos de proporcionalidade e discriminação são prudenciais — não mera correspondência de padrões. O julgamento humano, portanto, está intrínseco às condições de uma guerra justa, eliminando a possibilidade de que o emprego de armas autônomas letais possa atender às condições do jus in bello."

Além do "pensamento distintamente católico", os estudiosos argumentam que "armas autônomas letais obscurecem problematicamente a ação humana, transferindo perigosamente a responsabilidade dos tomadores de decisão humanos para as máquinas. Elas aceleram os processos de tomada de decisão militar, que já são rápidos, talvez a ponto de eliminar até mesmo a possibilidade de envolvimento humano. Elas contornam o tipo de julgamento prático e tomada de decisão cuidadosa que deveria nortear todas as decisões humanas, especialmente aquelas que envolvem questões de vida ou morte."

Os teólogos morais e especialistas em ética salientam que, embora concordem com a conclusão da Anthropic relativamente à utilização de IA em sistemas de armas autônomos, a sua posição é "mais veemente" do que a da gigante tecnológica — cujo raciocínio se baseia "na sua compreensão das limitações atuais da tecnologia".

Em um comunicado divulgado em 26 de fevereiro, o CEO da Anthropic, Dario Amodei, afirmou que "os sistemas de IA de ponta simplesmente não são confiáveis ​​o suficiente para alimentar armas totalmente autônomas" e que "não fornecerão, conscientemente, um produto que coloque em risco os militares e civis americanos".

Para maior clareza, os especialistas que participaram do parecer de amicus curiae afirmaram que divergem da Anthropic por não serem favoráveis ​​ao uso de armas autônomas letais, "mesmo que se mostrem perfeitamente confiáveis".

Leia mais