IA: "A teologia vem refletindo sobre os problemas que essa tecnologia apresenta há séculos". Entrevista com Lyndon Drake

Mais Lidos

  • “Muitos homens pensam que perder a dominação sobre as mulheres é uma perda da sua própria masculinidade, o que não é verdade. Um homem pode ser homem, ter seus valores e nem por isso precisa dominar mulheres, crianças ou pessoas de outras etnias”, diz a socióloga

    Feminicídio: “A noção de propriedade é profunda”. Entrevista especial com Eva Alterman Blay

    LER MAIS
  • Trump enfrenta uma guerra mais longa do que o esperado no Irã, com problemas no fornecimento de munição e armas

    LER MAIS
  • “É fundamental não olharmos apenas para os casos que chocam pela brutalidade, mas também para as violências cotidianas que atingem mulheres e meninas, que muitas vezes são naturalizadas e invisibilizadas”, adverte a assistente social

    Combate à violência contra as mulheres: “Essa luta ainda é urgente”. Entrevista especial com Cristiani Gentil Ricordi

    LER MAIS

Assine a Newsletter

Receba as notícias e atualizações do Instituto Humanitas Unisinos – IHU em primeira mão. Junte-se a nós!

Conheça nossa Política de Privacidade.

Revista ihu on-line

Natal. A poesia mística do Menino Deus no Brasil profundo

Edição: 558

Leia mais

O veneno automático e infinito do ódio e suas atualizações no século XXI

Edição: 557

Leia mais

Um caleidoscópio chamado Rio Grande do Sul

Edição: 556

Leia mais

07 Março 2026

Lyndon Drake, pesquisador da Universidade de Oxford, desenvolveu um guia de princípios éticos para engenheiros e líderes em inteligência artificial como antídoto à selvageria do Vale do Silício.

Lyndon Drake transita por três mundos aparentemente distintos: a ética dos mercados de capitais, a inteligência artificial (IA) e a teologia. Ele se define como um teólogo-cientista que busca conectar a lógica fria dos algoritmos, a dinâmica do dinheiro e as questões clássicas do bem e do mal. Foi banqueiro sênior no Barclays Capital — onde colaborou com o Escritório de Gestão da Dívida do Reino Unido, bancos centrais, fundos de pensão e fundos de hedge durante a crise do Lehman Brothers — e líder religioso como arquidiácono da Igreja Anglicana Māori.

Atualmente, ele trabalha como pesquisador na Universidade de Oxford, onde, juntamente com um grupo de especialistas, desenvolveu o Juramento de Oxford para Profissionais de IA, que visa ser uma espécie de juramento hipocrático para engenheiros e profissionais de IA. Inspirado em antigos códigos éticos, esse compromisso voluntário incentiva a priorização do bem comum em detrimento da mera eficiência técnica, limitando aplicações que amplifiquem as desigualdades ou corroam a dignidade humana. Drake o defende como um antídoto para a selvageria algorítmica do Vale do Silício. "Não é um freio à inovação, mas uma bússola para que a IA gere riqueza sustentável sem sacrificar valores", afirma.

A entrevista é de Óscar Granados, publicada por El País, 06-03-2026.

Eis a entrevista.

O que a teologia tem a ver com a inteligência artificial?

Eu diria que há dois motivos principais. O primeiro é que uma crescente maioria da população mundial possui algum tipo de afiliação religiosa. Além disso, essa afiliação está aumentando. A IA vai transformar a sociedade. Portanto, as razões pelas quais a IA interage com a sociedade devem incluir pelo menos uma explicação que faça sentido para pessoas religiosas. Caso contrário, corre-se o risco de gerar rupturas sociais: teríamos uma justificativa puramente secular e, ao mesmo tempo, comunidades que se sentiriam excluídas ou resistentes. Mas há uma razão mais profunda: alguns dos problemas que a inteligência artificial apresenta hoje têm sido objeto de reflexão teológica há centenas de anos, enquanto os cientistas da computação só começaram a pensar neles há um período relativamente curto.

Por exemplo?

Linguagem. Até recentemente, a IA era boa em matemática, mas ruim com palavras. Agora isso mudou. Teólogos e filósofos passaram séculos refletindo sobre a relação entre linguagem, significado e identidade.

Dizem que estamos prestes a resolver qualquer problema graças à IA. Você compartilha desse otimismo?

Eu faço isso há 30 anos e sempre tivemos a esperança de que a solução estivesse ao virar da esquina. Embora pareça que ela sempre escapa um pouco, acho que estamos muito perto de resolver a maioria das categorias de problemas, mesmo que não todos os casos específicos.

Isso é uma boa notícia?

É positivo em áreas como a medicina: detectar doenças antes que se desenvolvam salvará vidas. Mas o risco é que percamos a capacidade de fazer esses diagnósticos. Ou considere as armas autônomas: elas podem salvar vidas em uma guerra justa, mas nas mãos de alguém que trava uma guerra injusta, o dano é devastador. E o problema é que quase nunca concordamos sobre o que constitui uma guerra justa.

Nós também usamos IA para nos comunicarmos, quase como se estivéssemos falando com um igual.

Essa é uma estrutura conceitual perigosa. Partimos do pressuposto de que o valor de uma pessoa está atrelado às suas habilidades, especialmente no domínio da linguagem. Um computador ser bom em matemática não o torna humano ou um deus. Com sistemas de conversação, tendemos a atribuir-lhes personalidade, mas não devemos tratar coisas que são simplesmente poderosas como deuses.

Esses chatbots poderiam desafiar o status dos líderes religiosos?

Sem dúvida. Os chatbots têm um aspecto positivo: são sempre pacientes e gentis, algo com que os humanos têm dificuldade. Mas é uma gentileza complexa, daquela que sempre nos diz que somos bons, quando às vezes precisamos ouvir o contrário. Isso nos força a questionar o que significa ser humano. Não somos apenas nossas habilidades. Uma pessoa com deficiência grave tem imensa dignidade, mesmo que suas habilidades sejam limitadas. Se equipararmos valor à capacidade, teremos compreendido mal nossa própria natureza.

Você está promovendo o Compromisso de Oxford para profissionais de IA. O que você espera alcançar com isso?

Queremos algo semelhante ao Juramento de Hipócrates para médicos. Existem milhares de profissionais trabalhando nos bastidores que querem fazer o bem, mas não sabem como. O objetivo é incorporar a reflexão moral à sua prática diária e preservar o espaço para o julgamento humano onde ele deve estar.

Que compromissos assume quem assina este juramento?

Um ponto fundamental e controverso: afirmar que os seres humanos possuem um valor moral superior a qualquer entidade artificial. A IA deve servir ao florescimento humano. Também queremos que os designers reflitam sobre como suas criações transformam o usuário. Ela não prescreve ações específicas, mas sim orienta a reflexão moral, independentemente de como a tecnologia evolui.

Vocês já contam com o apoio das grandes empresas de tecnologia?

Atualmente, estamos na fase de feedback. Publicamos uma carta aberta que já despertou o interesse de profissionais de grandes empresas. Estamos aprimorando o próprio juramento, pois queremos que ele perdure por séculos. O verdadeiro teste virá quando estiver disponível: se ele estiver alinhado com as preocupações do setor, as pessoas o assinarão.

Alguns executivos veem a ética como um obstáculo à inovação. O que você diria a eles?

Nós propusemos isso para fomentar a inovação, mas redefinindo seu objetivo final. Queremos uma forma de desenvolver IA que seja, acima de tudo, boa e útil.

Sem uma lei que a respalde, como podemos evitar que seja meramente simbólica?

Um juramento é feito através da consciência individual e comunitária. Ele não dita leis, mas cria um princípio ético. Se ambos o assinarmos, podemos nos responsabilizar mutuamente caso nossas ações contradigam o compromisso. A sociedade precisa tanto de leis (como o Regulamento Europeu de IA) quanto de uma estrutura moral compartilhada que confira legitimidade social ao setor.

Na sua opinião, qual é o maior risco da IA ​​descontrolada?

Desemprego em massa, devido à sua probabilidade e ao seu impacto. Não apenas por causa do dinheiro, mas também porque vinculamos nossa identidade ao trabalho. Integrar essa mudança à nossa compreensão de valor pessoal será muito difícil. Minha maior preocupação é que sistemas estejam sendo criados, projetados, implícita ou explicitamente, unicamente para capturar nossa atenção em vez de servir a um propósito humano maior. Se o único objetivo deles é sequestrar nosso tempo, acabarão degradando a coisa mais valiosa que temos como humanidade.

Leia mais