07 Agosto 2019
“É preciso criar uma linguagem universal que coloque o ser humano no centro: uma algor-ética que recorde constantemente que a máquina está a serviço do ser humano, e não o contrário.”
O comentário é do teólogo e sacerdote italiano Paolo Benanti, frei franciscano da Terceira Ordem Regular e professor de Teologia Moral da Pontifícia Universidade Gregoriana, em Roma, em artigo publicado por Settimana News, 04-08-2019. A tradução é de Moisés Sbardelotto.
Eis o texto.
Várias vezes, ocupei-me de inteligências artificiais e ética. Em vários textos, apresentei cenários, desafios concretos, perguntas de sentido e questões filosóficas e éticas. Mas em que ponto está a reflexão global? Tentemos fazer um balanço sobre o que está “fervendo na panela”.
Não é fácil apresentar uma síntese. Mas podemos apresentar três estudos que tentam fazer essa síntese, obtendo assim um duplo resultado. Por um lado, oferecer referências sobre o tema e, por outro, mostrar as tendências atuais para falar sobre ética e inteligência artificial (IA). Então, vejamos os três principais estudos sobre a ética da IA disponíveis neste momento.
Princípios éticos
Para saber quais são os princípios éticos recorrentes citados pelas muitas diretrizes escritas por governos, organizações multilaterais e empresas para desenvolver uma inteligência ética artificial, é preciso se referir a um novo estudo (“Artificial Intelligence: the global landscape of ethics guidelines” [Inteligência Artificial: a paisagem global das diretrizes da ética], disponível aqui, em inglês) que revisou 84 dessas diretrizes (a maioria foi publicada entre Estados Unidos e Europa; entre elas, também está o livro branco da Agência para a Itália Digital, para o qual eu contribuí pessoalmente), destilando os princípios enunciados.
Os recorrentes, sobre os quais há mais convergência (estão presentes em mais da metade dos documentos), são cinco, embora permaneçam diferenças sobre como são interpretados depois e sobre como deveriam ser implementados.
Mas quais são os princípios em questão? Aqui estão eles em ordem de maior frequência:
Transparência: entendida sobretudo como a capacidade de explicar, interpretar e, em geral, revelar processos e decisões.
Justiça e equidade: entendidas como prevenção e mitigação de discriminações, mas também como possibilidade de apelar a decisões.
Não maleficência: entendida como o evitamento de riscos ou danos específicos, como abusos intencionais da tecnologia, por exemplo na guerra cibernética e no hacking, mas também como discriminações e violações da privacidade.
Responsabilidade e responsabilização: entendidas no sentido de esclarecer a atribuição das responsabilidades, também legais, mas novamente, também, esclarecer processos que possam levar a eventuais danos.
Privacidade: entendida em relação à proteção dos dados e à sua segurança.
O estudo de Harvard
Há também outro estudo recente de Harvard sobre esse mesmo assunto (disponível aqui, em inglês). Os pesquisadores extrapolaram oito temas-chave de 32 documentos:
1) responsabilização
2) equidade e não discriminação
3) controle humano da tecnologia
4) privacidade
5) responsabilidade profissional
6) promoção de valores humanos
7) segurança
8) transparência e capacidade de ser explicado
Apenas metade dos documentos analisados por esse artigo se refere aos direitos humanos. Convido-os a verem a sua visualização aqui abaixo: um trabalho realmente impressionante.
(Foto: PaoloBenanti.com)
Análise do movimento por uma IA ética
Por fim, há um estudo notável [disponível aqui, em inglês], do início deste ano, que analisa, de modo mais geral, os pressupostos do movimento por uma IA ética. Forçando o texto, de forma brutal e talvez um pouco radical, em síntese, poderíamos dizer que a sua conclusão é a seguinte: as conversas em curso sobre a ética na IA são pouco radicais e estão imbuídas de determinismo tecnológico (ou seja, a IA é uma força histórica à qual os humanos só podem reagir de maneira limitada, não está prevista a possibilidade de dizer não a certos sistemas ou estabelecer que certos dados não devem ser coletados).
As soluções propostas estão sempre em um nível “melhorativo” do ponto de vista técnico ou da implementação, não se discutem os pressupostos éticos ou políticos básicos. Ou seja, “os problemas continuam sendo, nessa visão, fundamentalmente técnicos, protegidos da intervenção democrática”. Acho esse estudo acadêmico muito esclarecedor.
Um olhar final
Devemos lembrar que, para guiar a inovação rumo a um autêntico desenvolvimento humano que não prejudique as pessoas e não crie fortes desequilíbrios globais, é importante combinar ética com tecnologia.
Tornar esse valor moral em algo compreensível para uma máquina envolve a criação de uma linguagem universal que coloque o ser humano no centro: uma algor-ética que recorde constantemente que a máquina está a serviço do ser humano, e não o contrário.
Leia mais
- ''Machine Behaviour'' e Inteligência Artificial: nomear os medos, governar os algoritmos. Artigo de Paolo Benanti
- Papa Francisco reúne-se com Brad Smith, presidente da Microsoft. "A tecnologia precisa da aliança entre ética, política e direito"
- Especialistas em inteligência artificial advertem sobre a 'corrida armamentista da tecnologia' em Roma
- O impacto da quarta revolução industrial na sociedade
- É preciso uma reflexão ética sobre a tecnociência
- Papa: hoje existe o risco de dar vida à lógica das máquinas e dos dispositivos
- Máquinas Sapiens. Os desenvolvimentos da Inteligência Artificial
- Inteligência artificial: “Precisamos mesmo de esperar por um desastre?”
- Se a inteligência artificial se torna Deus, teólogos e cientistas se confrontam em Roma
- O irreversível avanço da inteligência artificial
- Ética e Inteligência Artificial. Dez áreas de interesse
- A ética da inteligência artificial é a mesma de outras novas tecnologias
- Inteligência artificial, desafio ético. Entrevista com Paolo Benanti
- Inteligência artificial - A disputa entre a busca da eficiência e os desafios ético-morais. Entrevista especial com Brian Green
- A maior ameaça para a humanidade não é a mudança climática, mas a Inteligência Artificial, afirma o filósofo de Oxford apoiado por Bill Gates
- Inteligência artificial e práticas cotidianas
- Elon Musk: “A inteligência artificial ameaça a existência da nossa civilização”
- “Precisamos da inteligência artificial para sobreviver como espécie”
FECHAR
Comunicar erro.
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
Inteligência artificial e ética: um estado da arte. Artigo de Paolo Benanti - Instituto Humanitas Unisinos - IHU