Inteligência artificial e ética: um estado da arte. Artigo de Paolo Benanti

Revista ihu on-line

Planos de saúde e o SUS. Uma relação predatória

Edição: 541

Leia mais

Hans Jonas. 40 anos de O princípio responsabilidade

Edição: 540

Leia mais

Do ethos ao business em tempos de “Future-se”

Edição: 539

Leia mais

Mais Lidos

  • “Existe uma luta política na Igreja, entre os que querem a Igreja sonhada pelo Vaticano II e os que não” constata Arturo Sosa, superior-geral dos jesuítas

    LER MAIS
  • O agrotóxico que matou 50 milhões de abelhas em Santa Catarina em um só mês

    LER MAIS
  • “Estamos diante de uma crise do modelo de civilização”. Entrevista com Donna Haraway

    LER MAIS

Newsletter IHU

Fique atualizado das Notícias do Dia, inscreva-se na newsletter do IHU


close

FECHAR

Enviar o link deste por e-mail a um(a) amigo(a).

Enviar

07 Agosto 2019

“É preciso criar uma linguagem universal que coloque o ser humano no centro: uma algor-ética que recorde constantemente que a máquina está a serviço do ser humano, e não o contrário.”

O comentário é do teólogo e sacerdote italiano Paolo Benanti, frei franciscano da Terceira Ordem Regular e professor de Teologia Moral da Pontifícia Universidade Gregoriana, em Roma, em artigo publicado por Settimana News, 04-08-2019. A tradução é de Moisés Sbardelotto.

Eis o texto.

Várias vezes, ocupei-me de inteligências artificiais e ética. Em vários textos, apresentei cenários, desafios concretos, perguntas de sentido e questões filosóficas e éticas. Mas em que ponto está a reflexão global? Tentemos fazer um balanço sobre o que está “fervendo na panela”.

Não é fácil apresentar uma síntese. Mas podemos apresentar três estudos que tentam fazer essa síntese, obtendo assim um duplo resultado. Por um lado, oferecer referências sobre o tema e, por outro, mostrar as tendências atuais para falar sobre ética e inteligência artificial (IA). Então, vejamos os três principais estudos sobre a ética da IA disponíveis neste momento.

Princípios éticos

Para saber quais são os princípios éticos recorrentes citados pelas muitas diretrizes escritas por governos, organizações multilaterais e empresas para desenvolver uma inteligência ética artificial, é preciso se referir a um novo estudo (“Artificial Intelligence: the global landscape of ethics guidelines” [Inteligência Artificial: a paisagem global das diretrizes da ética], disponível aqui, em inglês) que revisou 84 dessas diretrizes (a maioria foi publicada entre Estados Unidos e Europa; entre elas, também está o livro branco da Agência para a Itália Digital, para o qual eu contribuí pessoalmente), destilando os princípios enunciados.

Os recorrentes, sobre os quais há mais convergência (estão presentes em mais da metade dos documentos), são cinco, embora permaneçam diferenças sobre como são interpretados depois e sobre como deveriam ser implementados.

Mas quais são os princípios em questão? Aqui estão eles em ordem de maior frequência:

Transparência: entendida sobretudo como a capacidade de explicar, interpretar e, em geral, revelar processos e decisões.

Justiça e equidade: entendidas como prevenção e mitigação de discriminações, mas também como possibilidade de apelar a decisões.

Não maleficência: entendida como o evitamento de riscos ou danos específicos, como abusos intencionais da tecnologia, por exemplo na guerra cibernética e no hacking, mas também como discriminações e violações da privacidade.

Responsabilidade e responsabilização: entendidas no sentido de esclarecer a atribuição das responsabilidades, também legais, mas novamente, também, esclarecer processos que possam levar a eventuais danos.

Privacidade: entendida em relação à proteção dos dados e à sua segurança.

O estudo de Harvard

Há também outro estudo recente de Harvard sobre esse mesmo assunto (disponível aqui, em inglês). Os pesquisadores extrapolaram oito temas-chave de 32 documentos:

1) responsabilização

2) equidade e não discriminação

3) controle humano da tecnologia

4) privacidade

5) responsabilidade profissional

6) promoção de valores humanos

7) segurança

8) transparência e capacidade de ser explicado

Apenas metade dos documentos analisados por esse artigo se refere aos direitos humanos. Convido-os a verem a sua visualização aqui abaixo: um trabalho realmente impressionante.

 

(Foto: PaoloBenanti.com)

Análise do movimento por uma IA ética

Por fim, há um estudo notável [disponível aqui, em inglês], do início deste ano, que analisa, de modo mais geral, os pressupostos do movimento por uma IA ética. Forçando o texto, de forma brutal e talvez um pouco radical, em síntese, poderíamos dizer que a sua conclusão é a seguinte: as conversas em curso sobre a ética na IA são pouco radicais e estão imbuídas de determinismo tecnológico (ou seja, a IA é uma força histórica à qual os humanos só podem reagir de maneira limitada, não está prevista a possibilidade de dizer não a certos sistemas ou estabelecer que certos dados não devem ser coletados).

As soluções propostas estão sempre em um nível “melhorativo” do ponto de vista técnico ou da implementação, não se discutem os pressupostos éticos ou políticos básicos. Ou seja, “os problemas continuam sendo, nessa visão, fundamentalmente técnicos, protegidos da intervenção democrática”. Acho esse estudo acadêmico muito esclarecedor.

Um olhar final

Devemos lembrar que, para guiar a inovação rumo a um autêntico desenvolvimento humano que não prejudique as pessoas e não crie fortes desequilíbrios globais, é importante combinar ética com tecnologia.

Tornar esse valor moral em algo compreensível para uma máquina envolve a criação de uma linguagem universal que coloque o ser humano no centro: uma algor-ética que recorde constantemente que a máquina está a serviço do ser humano, e não o contrário.

Leia mais

Comunicar erro

close

FECHAR

Comunicar erro.

Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:

Inteligência artificial e ética: um estado da arte. Artigo de Paolo Benanti - Instituto Humanitas Unisinos - IHU

##CHILD
picture
ASAV
Fechar

Deixe seu Comentário

profile picture
ASAV