‘Robôs assassinos’. É preciso acabar com as armas autônomas. Artigo de Paolo Benanti

Drone Reaper: Avião não tripulado carrega bombas e misseis | Foto: Divulgação

Mais Lidos

  • Lula, sua última eleição e seus demônios. Artigo de Antonio Martins

    LER MAIS
  • Vozes de Emaús: Movimento Fé e Política faz história. Artigo de Frei Betto e Claudio Ribeiro

    LER MAIS
  • Parte do Sul Global, incluindo o Brasil, defende que países desenvolvidos abandonem os combustíveis fósseis primeiro. Para Martí Orta, não há espaço para ritmos nacionais distintos na eliminação de petróleo, gás e carvão. O pesquisador afirma que a abertura de novos projetos de exploração ignora os limites definidos pela ciência

    Cancelar contratos fósseis. Não ‘há tempo’ para transição em diferentes velocidades. Entrevista com Martí Orta

    LER MAIS

Revista ihu on-line

Natal. A poesia mística do Menino Deus no Brasil profundo

Edição: 558

Leia mais

O veneno automático e infinito do ódio e suas atualizações no século XXI

Edição: 557

Leia mais

Um caleidoscópio chamado Rio Grande do Sul

Edição: 556

Leia mais

10 Dezembro 2021

 

Armas que usam algoritmos para matar, ao contrário do julgamento humano, são imorais e representam uma grave ameaça à segurança.

 

A opinião é de Paolo Benanti, teólogo e frei franciscano da Terceira Ordem Regular, professor da Pontifícia Universidade Gregoriana, em Roma, e acadêmico da Pontifícia Academia para a Vida.

 

O artigo foi publicado em Avvenire, 09-12-2021. A tradução é de Moisés Sbardelotto.

 

Eis o texto.

 

Talvez precisemos reescrever os mandamentos: agora o “não matar”, tutela fundamental da vida e sinal do valor único de cada um de nós, deve ser escrito não na pedra para o ser humano, mas no código para uma máquina.

Na semana passada, referindo-se à informática e chamando-a de “if Human: Kill ()” – ou seja, sugerindo que, em breve, poderemos ter a faculdade de fazer com que um homem seja morto com um comando de software –, foi lançada uma nova campanha para instar a ONU a realizar uma moratória sobre os Slaughterbots, também chamados de “sistemas de armas autônomas letais” ou “robôs assassinos”. Trata-se de armas que utilizam inteligência artificial para identificar, selecionar e matar pessoas sem o controle de operadores humanos.

Quem conhece um pouco de linguagem de programação de computadores pelo menos já ouviu falar das instruções condicionais. Uma instrução desse tipo é definida como if-else e é um construto lógico que controla a ramificação condicional. As instruções na expressão são executadas se a condição incluída for verificada. Quer-se dar a possibilidade de matar a uma arma automática por força de instruções desse tipo.

Já sabemos que, no caso de drones militares, a decisão de atacar é tomada à distância por um operador humano. No caso de armas autônomas letais, a decisão é tomada por algoritmos automáticos. Os Slaughterbots são pré-programados para matar um “perfil de destino” específico. A arma, então, é instalada em um ambiente onde a sua inteligência artificial procura esse “perfil de destino” utilizando os dados dos sensores, como o reconhecimento facial.

Os Estados Unidos, no dia 2 de dezembro passado, rejeitaram os pedidos de um acordo vinculante para regular ou proibir o uso de “robôs assassinos”, propondo, em vez disso, um “código de conduta” às Nações Unidas. Falando em um encontro em Genebra centrado na busca de um terreno comum sobre o uso dessas chamadas armas autônomas letais, um funcionário estadunidense rejeitou a ideia de regulamentar o seu uso por meio de um “instrumento juridicamente vinculante”. O encontro era preparatório para uma conferência de revisão da Convenção sobre Armas Convencionais, a ser realizada de 13 a 17 de dezembro.

Armas que usam algoritmos para matar, ao contrário do julgamento humano, são imorais e representam uma grave ameaça à segurança. O secretário-geral da ONU, António Guterres, já disse que “as máquinas com poder e discricionariedade para matar sem envolvimento humano são politicamente inaceitáveis, moralmente repugnantes e deveriam ser proibidas pelo direito internacional”.

Agora, resta a parte mais difícil: convencer os corações a escolherem a vida para que a máquina não mate.

 

Leia mais