10 Dezembro 2021
Armas que usam algoritmos para matar, ao contrário do julgamento humano, são imorais e representam uma grave ameaça à segurança.
A opinião é de Paolo Benanti, teólogo e frei franciscano da Terceira Ordem Regular, professor da Pontifícia Universidade Gregoriana, em Roma, e acadêmico da Pontifícia Academia para a Vida.
O artigo foi publicado em Avvenire, 09-12-2021. A tradução é de Moisés Sbardelotto.
Talvez precisemos reescrever os mandamentos: agora o “não matar”, tutela fundamental da vida e sinal do valor único de cada um de nós, deve ser escrito não na pedra para o ser humano, mas no código para uma máquina.
Na semana passada, referindo-se à informática e chamando-a de “if Human: Kill ()” – ou seja, sugerindo que, em breve, poderemos ter a faculdade de fazer com que um homem seja morto com um comando de software –, foi lançada uma nova campanha para instar a ONU a realizar uma moratória sobre os Slaughterbots, também chamados de “sistemas de armas autônomas letais” ou “robôs assassinos”. Trata-se de armas que utilizam inteligência artificial para identificar, selecionar e matar pessoas sem o controle de operadores humanos.
Quem conhece um pouco de linguagem de programação de computadores pelo menos já ouviu falar das instruções condicionais. Uma instrução desse tipo é definida como if-else e é um construto lógico que controla a ramificação condicional. As instruções na expressão são executadas se a condição incluída for verificada. Quer-se dar a possibilidade de matar a uma arma automática por força de instruções desse tipo.
Já sabemos que, no caso de drones militares, a decisão de atacar é tomada à distância por um operador humano. No caso de armas autônomas letais, a decisão é tomada por algoritmos automáticos. Os Slaughterbots são pré-programados para matar um “perfil de destino” específico. A arma, então, é instalada em um ambiente onde a sua inteligência artificial procura esse “perfil de destino” utilizando os dados dos sensores, como o reconhecimento facial.
Os Estados Unidos, no dia 2 de dezembro passado, rejeitaram os pedidos de um acordo vinculante para regular ou proibir o uso de “robôs assassinos”, propondo, em vez disso, um “código de conduta” às Nações Unidas. Falando em um encontro em Genebra centrado na busca de um terreno comum sobre o uso dessas chamadas armas autônomas letais, um funcionário estadunidense rejeitou a ideia de regulamentar o seu uso por meio de um “instrumento juridicamente vinculante”. O encontro era preparatório para uma conferência de revisão da Convenção sobre Armas Convencionais, a ser realizada de 13 a 17 de dezembro.
Armas que usam algoritmos para matar, ao contrário do julgamento humano, são imorais e representam uma grave ameaça à segurança. O secretário-geral da ONU, António Guterres, já disse que “as máquinas com poder e discricionariedade para matar sem envolvimento humano são politicamente inaceitáveis, moralmente repugnantes e deveriam ser proibidas pelo direito internacional”.
Agora, resta a parte mais difícil: convencer os corações a escolherem a vida para que a máquina não mate.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
‘Robôs assassinos’. É preciso acabar com as armas autônomas. Artigo de Paolo Benanti - Instituto Humanitas Unisinos - IHU