Inteligência artificial - A disputa entre a busca da eficiência e os desafios ético-morais. Entrevista especial com Brian Green

Mais Lidos

  • “Os israelenses nunca terão verdadeira segurança, enquanto os palestinos não a tiverem”. Entrevista com Antony Loewenstein

    LER MAIS
  • Golpe de 1964 completa 60 anos insepulto. Entrevista com Dênis de Moraes

    LER MAIS
  • “Guerra nuclear preventiva” é a doutrina oficial dos Estados Unidos: uma visão histórica de seu belicismo. Artigo de Michel Chossudovsky

    LER MAIS

Revista ihu on-line

Zooliteratura. A virada animal e vegetal contra o antropocentrismo

Edição: 552

Leia mais

Modernismos. A fratura entre a modernidade artística e social no Brasil

Edição: 551

Leia mais

Metaverso. A experiência humana sob outros horizontes

Edição: 550

Leia mais

Por: Patricia Fachin | 15 Agosto 2017

O desenvolvimento e o uso das tecnologias, a exemplo da inteligência artificial, precisaria considerar uma distinção importante entre, de um lado, a eficiência e, de outro, os princípios morais, defende Brian Green, diretor assistente dos Programas de Ética do Centro de Ética Aplicada Markkula, da Universidade de Santa Clara, na Califórnia, EUA. Contudo, adverte, “a maioria das pessoas que conheço só pensa em eficiência monetária. Pouquíssimos pensam sobre os bons costumes do sistema em geral. As perspectivas humanas tendem a se focalizar demais sobre ideias pequenas e perder de vista o quadro mais amplo. Precisamos ver o quadro maior relativo ao futuro que estamos construindo, precisamos nos planejar para ele e administrá-lo de modo adequado, se quisermos que este futuro seja melhor e não infernal”.

Na entrevista a seguir, concedida por e-mail para a IHU On-Line, Brian Green explica o que está envolvido nessas duas perspectivas. A eficiência monetária, ressalta, “poderia dizer que devemos deixar morrer os enfermos, ou praticar-lhes a eutanásia”, mas, de outro lado, “um conjunto de princípios morais que respeite a dignidade humana não pode aceitar isso. Matar pessoas pode economizar dinheiro, mas destrói a vida dos que morrem, prejudica o caráter dos que vivem: o perpetrador e os que permitem o mal pela inação, assim tornando atos maléficos mais fáceis e piores”, argumenta.

Na avaliação de Green, hoje a eficiência se sobrepõe aos princípios morais, e exemplos disso podem ser vistos em situações que já estão acontecendo. “Só algumas poucas organizações estão desenvolvendo inteligência artificial ou utilizando-a em grande medida, pelo menos por enquanto. Porém, neste momento, em nosso sistema econômico de nível mundial, a inteligência artificial está sendo usada pelos já ricos para enriquecerem-se mais ainda. A inteligência artificial está sendo empregada para ganhar em eficiência nas finanças, nos mercados, no direito, nos setores energético, de transporte, comunicação, e assim por diante. E as inúmeras pessoas que costumavam realizar estas tarefas podem em breve estar sem trabalho, enquanto os poucos que as empregavam verão, pelo contrário, os seus custos trabalhistas repentinamente caírem e as receitas aumentarem. E, na medida em que as receitas aumentam, poderão investir mais em tecnologia, assim acelerando a desigualdade. Esse tipo de desigualdade reforça a si próprio, a menos que fatores externos – fatores morais – nos levem a ajustar a estrutura econômica de forma que se beneficiem as pessoas de uma forma mais ampla”. Para equilibrar o cenário, Green defende o uso das tecnologias para “promover os bons costumes” no sentido de “otimizar a assistência à saúde, a eficiência no campo da educação e no setor energético”.

Brian Green | Foto: Universidade de Santa Clara

Brian Green é mestre e doutor em Ética e Teoria Social pela Graduate Theological Union, em Berkeley, na Califórnia, e graduado em Genética pela Universidade da Califórnia.

Confira a entrevista.

IHU On-Line - Como recebeu a notícia de que a primeira tentativa de criar embriões humanos geneticamente modificados foi feita por cientistas da Oregon Health and Science University, nos EUA?

Brian Green - Infelizmente, em nosso contexto cultural de hoje, eu já achava que este evento era lamentavelmente inevitável. Ele necessariamente aconteceria em algum lugar do mundo. Me surpreendeu que este lugar foi os Estados Unidos.

IHU On-Line - Em sua opinião, quais são os problemas morais envolvidos neste tipo de pesquisa?

Brian Green - Muito embora minúsculo, um embrião é vida humana. Todos iniciamos nossas vidas como embriões e, no entanto, hoje, nos sentimos livres para destruir aquilo que fomos certa vez. É uma injustiça negar a um grupo de pessoas aquilo que nós próprios recebemos no passado. Além disso, há um outro problema: instrumentalizar vidas humanas, inteiramente para beneficiar outrem, ao mesmo tempo destruindo aqueles sujeitados à pesquisa, é desumanizante e injusto. Uma tal pesquisa não só é nociva às vidas humanas destruídas nela como também prejudica o caráter daqueles que as cometem.

IHU On-Line - Em entrevista recente, você declarou que os problemas morais relacionados à tecnologia estão associados ao uso que os humanos fazem destas tecnologias, ou seja, um emprego com finalidades boas ou más. Como definiria um uso bom da tecnologia, e um mau uso dela?

Ser eticista significa ser crítico, julgar os atos e dizer às pessoas coisas que elas talvez não queiram ouvir

Brian Green - Um bom uso da tecnologia é aquele que melhora o bem-estar físico, mental, espiritual e moral humano. Ele ajuda as pessoas a se tornarem mais saudáveis, mais educadas, mais amantes de Deus e do próximo, e melhores em tomar decisões morais. Uma tecnologia má fará o contrário: nos torna mais doentes, menos educados, menos amorosos para com os outros, e nos faz tomar decisões piores. Geralmente a tecnologia apenas torna mais simples a execução de ações — e desejamos a boa tecnologia que vem para facilitar as boas ações, não tecnologias más que venham para facilitar ações más. Para citar Peter Maurin, fundador do Movimento dos Trabalhadores Católicos, desejamos “criar o tipo de sociedade em que as pessoas acham mais fácil ser boas”. As tecnologias podem auxiliar nesse sentido.

IHU On-Line - A pesquisa envolvendo embriões humanos geneticamente modificados bem como a pesquisa em torno do desenvolvimento da inteligência artificial são acompanhadas pelos comitês de ética? O que estes comitês debatem sobre o desenvolvimento dessas pesquisas?

Brian Green - Os comitês formais (os chamados Comitês de Ética em Pesquisa) estão provavelmente envolvidos em algumas das escolhas em torno da pesquisa embrionária, pelo menos nos EUA. Alguns grupos que estudam inteligência artificial também têm um interesse em ética. Mas, na maior parte das vezes, até onde sei, os eticistas normalmente atuam do lado de fora do sistema, individualmente, ou em centros de ética tais como o meu próprio: o Centro Markkula de Ética Aplicada, da Universidade de Santa Clara. E isso era esperado: ser eticista significa ser crítico, julgar os atos e dizer às pessoas coisas que elas talvez não queiram ouvir. E os críticos que não estão do lado de fora de um sistema muitas vezes são capturados por ele e curvam os seus juízos à vontade dos empregadores, ainda que de forma sutil. Precisamos de instituições exteriores, não viciadas, em que os eticistas podem ter debates livres sobre temas atuais com menos influência do dinheiro ou de outras causas que corrompem.

IHU On-Line - Segundo o noticiário recente, sistemas computacionais criaram uma linguagem própria e foram desativados. Qual sua opinião sobre este tipo de fenômeno?

Brian Green - Essa história é um tanto enganosa e sensacionalista. Sim, os chatbots saíram com uma linguagem abreviada própria deles para fins comunicacionais. Não houve nada de execrável, nada de “intenção” robótica ou malevolência sendo expressa; os programadores apenas permitiram que os sistemas se desviassem do inglês nas comunicações que fizeram e foi isso o que aconteceu. Visto que esse desvio não era desejável (eles queriam que os bots [robôs] pudessem conversar com os humanos), o erro foi corrigido e os bots, agora, restringem-se a usarem o idioma inglês.

IHU On-Line - Hoje muito se fala também sobre a Revolução 4.0, assim como muito se especula em torno de como essa revolução poderia transformar em vários aspectos a vida humana, como na área do trabalho ou de mão de obra, por exemplo. Qual a sua leitura da Revolução 4.0?

As perspectivas humanas tendem a se focalizar demais sobre ideias pequenas e perder de vista o quadro mais amplo

Brian Green - Definitivamente a tecnologia transformará a vida humana e a sociedade de forma drástica nas próximas décadas. Porém ela vem fazendo isso há vários séculos já. O desenvolvimento tecnológico pode ser problemático à vida humana e à sociedade humana, e esta problemática é dolorosa e difícil, pois as pessoas frequentemente têm os seus modos de subsistência alterados e precisam aprender novas habilidades para encontrar novas finalidades, novos propósitos. Isso acontece neste momento e vai continuar a acontecer. Uma resposta eticamente boa é preparar as pessoas para a nova situação, ajudá-las tanto quanto possível e, nos piores casos, quiçá evitar com que certas tecnologias causem os seus piores efeitos (por exemplo, talvez proibindo certos tipos de armas ou tecnologias de vigilância).

IHU On-Line - O que o leva a afirmar que a inteligência artificial poderá aumentar as desigualdades?

Brian Green - Já podemos ver isso acontecendo, com algumas poucas empresas de tecnologia e seus investidores fazendo centenas de bilhões de dólares com (num primeiro momento) ganhos aparentemente menores em eficiência, por exemplo, com vendas ou em publicidade. Mas estes ganhos menores rapidamente se estendem ao longo de milhões de pessoas.

Só algumas poucas organizações estão desenvolvendo inteligência artificial ou utilizando-a em grande medida, pelo menos por enquanto. Porém, neste momento, em nosso sistema econômico de nível mundial, a inteligência artificial está sendo usada pelos já ricos para enriquecerem-se mais ainda. A inteligência artificial está sendo empregada para ganhar em eficiência nas finanças, nos mercados, no direito, nos setores energético, de transporte, comunicação, e assim por diante. E as inúmeras pessoas que costumavam realizar estas tarefas podem em breve estar sem trabalho, enquanto os poucos que as empregavam verão, pelo contrário, os seus custos trabalhistas repentinamente caírem e as receitas aumentarem. E, na medida em que as receitas aumentam, poderão investir mais em tecnologia, assim acelerando a desigualdade. Esse tipo de desigualdade reforça a si próprio, a menos que fatores externos — fatores morais — nos levem a ajustar a estrutura econômica de forma que se beneficiem as pessoas de uma forma mais ampla.

É claro que a inteligência artificial provavelmente irá também fazer com que o consumo de produtos se torne mais barato, já que os custos de produção irão cair, e isso ajudará o público consumidor. Porém, dadas as nossas estruturas econômicas atuais, o efeito líquido provavelmente exacerbará a desigualdade.

IHU On-Line - Nesta mesma entrevista mencionada anteriormente, você faz uma distinção entre pensar a inteligência artificial a partir da perspectiva da eficiência e a partir da perspectiva dos princípios morais. Neste debate, tem-se pensado mais em termos de eficiência do que em termos de moralidade?

A maioria das pessoas que conheço só pensa em eficiência monetária

Brian Green - A maioria das pessoas que conheço só pensa em eficiência monetária. Pouquíssimos pensam sobre os bons costumes do sistema em geral. As perspectivas humanas tendem a se focalizar demais sobre ideias pequenas e perder de vista o quadro mais amplo. Precisamos ver o quadro maior relativo ao futuro que estamos construindo, precisamos nos planejar para ele e administrá-lo de modo adequado, se quisermos que este futuro seja melhor e não infernal. Fazer pequenas coisas darem certo para poucas pessoas enquanto grandes coisas dão errado para muitos não irá levar a um mundo melhor.

IHU On-Line - O que realmente distingue estas duas perspectivas? O que significaria ver a inteligência artificial com base na eficiência, de um lado, e com base nos bons costumes, de outro?

Brian Green - No primeiro caso, usar inteligência artificial para melhor anunciar os produtos de consumo é uma atividade importante atualmente. Se a inteligência artificial oferecer 10% de vantagem na venda de um produto em comparação ao anúncio convencional, temos um dado significativo e as empresas a utilizarão.

Usar a inteligência artificial para promover os bons costumes, por outro lado, poderá tocar em um problema completamente diferente. Por exemplo, ela poderia escolher como otimizar a assistência à saúde, a eficiência no campo da educação e no setor energético. Por favor, observemos que estas soluções morais também poderiam economizar dinheiro, mas também poderão não economizar. Talvez, a fim de realmente melhorar os nossos sistemas de saúde e educacionais, precisamos investir bilhões de dólares, hoje, para colher os benefícios dentro de algumas décadas. Ou talvez possamos não ter benefício algum, talvez eles somente irão nos dar mais custos — afinal, um sistema de saúde que prolonga a vida dos idosos e enfermos, desse modo custando muito mais dinheiro do que se morressem.

A eficiência monetária poderia dizer que devemos deixar morrer os enfermos, ou praticar-lhes a eutanásia, e isso é dentro da lei em certos lugares. Mas um conjunto de princípios morais que respeite a dignidade humana não pode aceitar isso. Matar pessoas pode economizar dinheiro, mas destrói a vida dos que morrem, prejudica o caráter dos que vivem: o perpetrador e os que permitem o mal pela inação, assim tornando atos maléficos mais fáceis e piores.

Se incorporarmos essa insensibilidade e essa imoralidade para dentro do código computacional, este rapidamente poderá nos levar a lugares desumanos para onde não desejamos ir.

IHU On-Line - Como pesquisadores de outras áreas do saber, como biologia, engenharia, ciências da computação e neurociência, têm lidado com questões morais envolvidas em suas respectivas pesquisas? Que tipo de preocupação há em relação a essas questões e como eles tentam aproximar as suas próprias áreas específicas de pesquisa, ética ou filosofia?

Brian Green - Não posso falar muito além da minha própria experiência. Pessoas que atuam na área da tecnologia e engenheiros me abordam e fazem perguntas sobre o que eles deveriam estar fazendo. Como elas podem tomar decisões certas no trabalho que desenvolvem? Não são muitos os que se perguntam, mas alguns. Mesmo assim, estes poucos estão altamente motivados porque, em geral, vislumbraram o quadro mais amplo e este os incomoda. A primeira coisa que querem saber é que não estão sozinhos, e que é certo perceber que existem inquietações nesses campos. Muitas vezes, a única coisa necessária para que uma organização faça melhores escolhas é que uma ou mais pessoas deem um passo à frente e façam a pergunta sobre se um determinado curso de ações é certo ou errado. Se mais pessoas se pronunciam, melhor ainda. Mas se ninguém levanta estas dúvidas, ou se as fazem e são em seguida punidas por isso, decisões ruins ocorrem e começos maléficos se difundem. Nas instituições, deve-se incentivar a virtude, e deve-se desencorajar o vício, ou a organização rapidamente tornar-se-á patológica e destrutiva à sociedade.

IHU On-Line - Pelo menos nos dois últimos séculos tem ocorrido um debate sobre a identidade da filosofia diante do avanço da pesquisa científica, e os filósofos têm tentado dar respostas à crise identitária da filosofia. Relativamente a esta questão, o que a filosofia tem a nos dizer em vista do avanço das pesquisas científicas e da chamada era da técnica, por exemplo?

Não podemos nos dar ao luxo de meramente “brincar” com inteligência artificial, biologia sintética ou nanotecnologia autorreplicadora

Brian Green - Compreendo a ciência e a tecnologia não como opostos à filosofia, mas como ramos dela. Ciência é filosofia natural, codificada em um método para se alcançar resultados repetíveis sobre o mundo em que vivemos. A tecnologia pega estes mesmos resultados e tenta colocá-los a trabalhar para facilitar o alcance dos nossos objetivos — geralmente objetivos que beneficiam a humanidade de alguma maneira (até mesmo as armas são vistas como boas por aqueles que as possuem). Por exemplo, a ciência descobriu os antibióticos, e a tecnologia pensou como fazê-los e usá-los para salvar milhões de vidas. Sem pressupostos filosóficos, e mesmo teológicos, tais como estimar a verdade, valorizar o compartilhamento do conhecimento e usar o conhecimento para o bem de ajudar as pessoas, a ciência e a tecnologia não teriam se desenvolvido como aconteceu. Se agora esquecêssemos estes pressupostos, valorizando, pelo contrário, as falsidades, o sigilo e o egoísmo, elas talvez ficariam paralisadas ou, até mesmo, fracassariam enquanto empreendimentos, como as “fake news” [notícias falsas], os “fatos alternativos”, o ceticismo científico e a agitação populista podem estar indicando.

IHU On-Line - Além do debate em torno da modificação genética dos seres humanos e do desenvolvimento da inteligência artificial, a seu ver quais sãos os problemas atuais relacionados às várias áreas da ciência para as quais a filosofia deve dar uma resposta urgente? Nesse caso, como aproximar a filosofia das outras ciências?

Brian Green - Devemos reconhecer que temos escolhas nas tecnologias que desenvolvemos. Não precisamos ter armas nucleares sobre a Terra, por exemplo. Poderíamos ter tratados internacionais contra este tipo de armamento, da forma como temos contra projéteis (balas) envenenados, dispositivos a laser com capacidade de cegar, armas químicas, armas biológicas e uma série de outros métodos desumanos de matar. Os filósofos e teólogos deveriam se engajar em questões de bons costumes e governança das novas e poderosas tecnologias que temos desenvolvido, ou simplesmente teremos estas tecnologias e, como crianças com armas, começaremos a brincar com elas. Não podemos nos dar ao luxo de meramente “brincar” com inteligência artificial, biologia sintética ou nanotecnologia autorreplicadora. Precisamos de tratados internacionais para coordenar a governança em nível mundial em torno dessas tecnologias, ou iremos abrir uma Caixa de Pandora com problemas que não podemos resolver, e que podem destruir a civilização.

IHU On-Line - Gostaria de acrescentar algo?

Antes de 1945, a autoextinção humana não era um problema grave, mas com as armas nucleares e, depois, com a Guerra Fria passou a ser

Brian Green - Como um último ponto, gostaria apenas de acrescentar que a Igreja Católica tem uma longa história de promoção do progresso científico e tecnológico (na arquitetura, química, física, em dispositivos mecânicos etc.) ao mesmo tempo criticando o desenvolvimento de tecnologias que facilitam a consecução do mal. Já na Idade Média, no Concílio de Latrão II, a Igreja tentou proibir o uso da balestra contra companheiros cristãos. Não deu certo, e se as armas “de alta tecnologia” atuais fossem balestras, as nossas preocupações não teriam aumentado. Entretanto, levou-se a ideia de que as armas são intrinsecamente maléficas (malum in se) para dentro do direito internacional – e a própria existência deste conceito deve ser creditada à Igreja. A Igreja medieval tentou e não conseguiu, mas a ideia segue viva, e talvez um dia ela possa não fracassar.

A Igreja ainda se posiciona criticamente e age contra tecnologias bárbaras tais como as armas nucleares, e na Laudato Si’ o papa Francisco recorda que podemos desenvolver tecnologias limpas também, e nos distanciar das tecnologias destrutivas. Há uma citação significativa na Laudato Si’, no parágrafo 79, em que Francisco escreve, em parte citando o papa Bento XVI: “Por isso a Igreja, com a sua ação, procura não só lembrar o dever de cuidar da natureza, mas também e ‘sobretudo proteger o homem da destruição de si mesmo’”.

Vale repetir: o trabalho da Igreja, de todos os cristãos, é proteger a natureza, e mais ainda a humanidade, da autodestruição. Trata-se de uma missão moral, não apenas uma missão meramente tecnológica; aliás, é a própria tecnologia que tornou possível o fracasso desta missão. Antes de 1945, a autoextinção humana não era um problema grave, mas com as armas nucleares e, depois, com a Guerra Fria, de repente passou a ser. Somente escolhendo o caminho moral correto é que podemos continuar na nossa missão. Façamos o que estiver ao nosso alcance para dar continuidade a esta grande obra.

Leia mais

Comunicar erro

close

FECHAR

Comunicar erro.

Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:

Inteligência artificial - A disputa entre a busca da eficiência e os desafios ético-morais. Entrevista especial com Brian Green - Instituto Humanitas Unisinos - IHU