Inteligência artificial, desafio ético. Entrevista com Paolo Benanti

Revista ihu on-line

Bioética e o contexto hermenêutico da Biopolítica

Edição: 513

Leia mais

Revolução Pernambucana. Semeadura de um Brasil independente, republicano e tolerante

Edição: 512

Leia mais

Francisco Suárez e a transição da escolástica para a modernidade

Edição: 511

Leia mais

Mais Lidos

  • Papa Francisco convoca Sínodo para a região panamazônica

    LER MAIS
  • Um Sínodo muito importante para a Igreja na Amazônia. Entrevista com Cláudio Hummes

    LER MAIS
  • Povos indígenas e criação: um Sínodo dos Bispos especial para a região panamazônica

    LER MAIS

Newsletter IHU

Fique atualizado das Notícias do Dia, inscreva-se na newsletter do IHU

05 Julho 2017

A necessidade de adaptar as nossas estruturas sociais à nova e inédita figura de uma sociedade “constituída por agentes autônomos de tipo misto”, uma exigência que a Inteligência Artificial (IA) já tornou cada vez menos remota, é um tema do qual ficou difícil subestimar o porte.

A reportagem é de Marco Bernardoni, publicada no sítio Settimana News, 04-07-2017. A tradução é de Moisés Sbardelotto.

A confirmação disso é um congresso – “Inteligência Artificial: um desafio ético?” – organizado pelo Pontifício Conselho para a Cultura dentro da iniciativa do “Pátio dos Gentios”, que será realizado no próximo dia 6 de julho, no Palazzo Borromeo, sede da Embaixada da Itália junto à Santa Sé.

Paolo Benanti, franciscano da Terceira Ordem Regular e professor de Teologia Moral na Gregoriana, é um dos conferencistas convidados para o congresso, junto com Sebastiano Maffettone (LUISS Guido Carli) e Luciano Floridi (Oxford University).

Eis a entrevista.

Quais as questões éticas que surgem do fato de imaginar uma coexistência homem-máquina (no ambiente de trabalho) respeitosa da dignidade humana?

Eu expressaria a primeira e fundamental diretriz que as modernas máquinas cognitivas deveriam implementar com o ditado latino: primum non nocere. A realização de tecnologias controladas por sistemas de inteligência artificial levanta toda uma série de problemas, que – como é fácil de compreender – referem-se, acima de tudo, à gestão da autonomia de decisão de que esses aparelhos gozam. No entanto, a questão dos agentes morais autônomas, ou seja, das máquinas cognitivas em um ambiente de trabalho misto, que prevê a copresença homem-máquina, não pode se esgotar apenas nessa diretriz.

O que é necessário que essas máquinas “aprendam” ao colaborar com o ser humano?

Eu diria que as modernas máquinas sapiens – para usar um neologismo – deveriam ser capazes de aprender pelo menos outros quatro elementos fundamentais, que podemos considerar como uma conjugação operacional da dignidade humana. Se forem capazes de interagir no respeito a tais dimensões, então não só as máquinas não prejudicarão o ser humano, mas também saberão proteger a dignidade e a criatividade próprias dos operadores humanos.

Quais são esses elementos?

O primeiro, eu definiria como uma certa capacidade de intuição. Quando duas pessoas colaboram, uma consegue antecipar e satisfazer as intenções da outra, intuindo o que ela está fazendo ou o que quer fazer. Se vemos uma pessoa caminhando com dificuldade com os braços cheios de objetos, compreendemos a situação e a ajudamos, facilitando o seu trabalho ou levando parte da carga para ela. Essa capacidade intuitiva humana está na base da grande flexibilidade que nos é própria e que nos permitiu nos organizar, desde a antiguidade, primeiro na caça e na agricultura, e depois no trabalho. Em um ambiente misto, a inteligência artificial deve poder intuir as intenções dos operadores humanos e se adaptar. Na verdade, é a máquina que deve se adaptar ao ser humano e respeitar a sua engenhosidade e flexibilidade, e não o contrário.

Depois, em segundo lugar, eu indicaria a inteligibilidade da ação. As máquinas cognitivas são governadas por softwares desenvolvidos para otimizar o consumo de energia, as trajetórias e as velocidades operacionais dos servo-aparelhos. Se um robô deve pegar um objeto, o movimento do seu braço mecânico seguirá uma trajetória de mínimo consumo de energia e de tempo. Um ser humano, no entanto, fará a mesma operação de modo a dar a entender a quem estiver ao seu redor o que ele quer fazer. Vendo outro ser humano em ação, o operador humano é capaz de captar a intenção do agente não por força de uma operação de otimização, mas da inteligibilidade da própria ação.

Por isso, querendo garantir um ambiente de trabalho misto respeitoso da dignidade humana, o agir da máquina deverá ser inteligível para o ser humano. Quem compartilha com a máquina o espaço de trabalho sempre deve poder intuir qual é a ação que ela vai realizar. Isso permite, dentre outras coisas, uma coexistência que não expõe o ser humano a situações perigosas. Não é só a otimização da ação automática que o software deve buscar, mas, sempre e acima de tudo, o respeito pelo ser humano.

Restam duas dimensões.

O terceiro elemento a se exigir é a adaptabilidade. A inteligência artificial já permite que as máquinas se adaptem às condições ambientais para realizar ações autônomas. Os algoritmos da inteligência artificial, porém, deveria ser capazes não só se adaptar às condições ambientais em mudança, mas também – em um ambiente de trabalho misto – às diversas personalidades humanas com as quais devem interagir. Um automóvel de direção autônoma, por exemplo, deve poder se adaptar às condições do tráfego, para não falhar ou causar engarrafamentos. Mas ele também deveria poder se adaptar à sensibilidade dos seus passageiros, que poderiam estar exasperados com a sua lentidão ao mudar de faixa ou preocupados com a sua direção agressiva demais. O ser humano não é apenas um ser racional, mas também emotivo; é por isso que a máquina deveria poder avaliar e respeitar essa característica peculiar, que reflete a unicidade da pessoa. A atenção a não mortificar tal unicidade racional-emotiva permite uma coexistência respeitosa da dignidade das pessoas.

Por fim, como última característica, eu falaria de capacidade para os softwares que governam a máquina de adequar os objetivos. De fato, se em um ambiente totalmente automático a qualidade absoluta do objetivo pode ser uma boa estratégia, em um ambiente misto ela não é. Para que a máquina cognitiva interaja de modo respeitoso com as pessoas, ela deve aprender qual é o objetivo adequado em uma situação particular. O robô pode não ter como única estratégia o fato de buscar o seu objetivo de modo absoluto, mas deve poder adequar o seu agir com base no agir e no objetivo daqueles que cooperam com ele. Eu gosto de falar da necessidade, para a máquina, de implementar uma espécie de humildade artificial, que lhe permita compreender – caso a caso – se convém suspender ou adiar certa função, porque surgiram outras prioridades nas pessoas com as quais ela interage. A prioridade operacional, em suma, deve ser posta na pessoa, e não na máquina. É o robô que coopera, e não o ser humano que auxilia o funcionamento da máquina.

Como é possível implementar, de modo seguro, essas quatro características em uma máquina cognitiva?

São necessários algoritmos de verificação independentes, capazes de medir e certificar as capacidades de intuição, inteligibilidade, adaptabilidade e adequação dos objetivos elencadas acima. Tais algoritmos de avaliação devem ser desenvolvidos rigorosamente, de modo independente e confiados a entidades terceiras de certificação, que deem garantia disso. Cabe ao governo, depois, prover um quadro operacional capaz de transformar a dimensão de valor em estruturas de padronização, certificação e controle para a proteção da pessoa e do seu valor nos ambientes de trabalho mistos.

A esse respeito, em que pontos estamos na Itália?

Com a entrada em vigor do decreto presidencial 459/1996, a Itália entrou entre os Estados europeus que – tendo recebido a chamada “Diretriz Máquinas” – garantem a livre circulação no mercado comum apenas para máquinas que possuam a marca de conformidade da Comunidade Europeia, que pode ser emitida pelo fabricante ou por um órgão oficial de certificação. É óbvio que não basta controlar a segurança de instalação e das condições operacionais das máquinas, mas se trata de garantir que o espaço de autonomia dessas máquinas cognitivas sempre respeite as diretrizes éticas fundamentais de que falávamos. Não bastam padrões, mas são necessários algoritmos capazes de avaliar de forma inteligente a adequação das inteligências artificiais destinadas a cooperar com operadores humanos. Só assim não sofreremos com a inovação tecnológica, mas tentaremos governá-la e orientá-la na perspectiva de um autêntico desenvolvimento humano também na era das inteligências artificiais por vir.

Leia mais

Comunicar erro

close

FECHAR

Comunicar erro.

Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:

Instituto Humanitas Unisinos - IHU - Inteligência artificial, desafio ético. Entrevista com Paolo Benanti