Da ficção científica à realidade: os novos dilemas éticos da Inteligência Artificial. Entrevista especial com João Cortese

"A alteridade (...) talvez seja a categoria ética que nos permita distinguir o agente moral humano da máquina. A máquina, sendo finita, ainda que indefinida, tem um limite de capacidade para me surpreender, enquanto o outro sempre vai além de mim", diz pesquisador

Foto: Reprodução

Por: Edição Patricia Fachin | 12 Mai 2023

As relações entre sistemas de Inteligência Artificial – IA e seres humanos e, mais especificamente, as discussões éticas e filosóficas sobre essas relações, reconduzem o ser humano a uma das questões fundamentais da antropologia filosófica: o que é o homem? “É como se tivéssemos um espelho na medida em que, conforme vamos discutindo IA, as questões voltam para o ser humano. Por exemplo, se vamos discutir se uma máquina tem inteligência ou não, temos que dar um passo atrás e perguntar o que é inteligência para o ser humano. Se vamos discutir se uma máquina é consciente ou não, preciso perguntar o que é consciência para o ser humano, e assim por diante”, sublinha João Cortese na videoconferência intitulada “Inteligência Artificial e as noções de interação, indistinguibilidade e alteridades”, ministrada no Instituto Humanitas Unisinos – IHU em 26-04-2023, na abertura do Ciclo de Estudos Inteligência Artificial, fronteiras tecnológicas e devires humanos.

Segundo ele, hoje as discussões sobre a IA e o ser humano giram em torno de dois núcleos. O primeiro, entre o humanismo e o transumanismo, “no qual melhorar ou não melhorar a espécie humana seria a questão relevante”, com os transumanistas propondo “melhoramentos indefinidos” e o “novo humanismo” problematizando a visão transumanista. O segundo núcleo, entre o humanismo e o pós-humanismo, discutindo se a IA e os robôs podem ser agentes éticos e passíveis de responsabilização moral. Essa corrente, destaca, “questiona o antropocentrismo e as fronteiras ontológicas entre humanos e não humanos”.

A seguir, publicamos os principais trechos da conferência, no formato de entrevista.

Imagem: João Cortese | YouTube

João Cortese é graduado em Ciências Moleculares pela Universidade de São Paulo – USP, mestre em História e Filosofia da Ciência pela Université de Paris 7, e doutor em Epistemologia e História da Ciência pela Université de Paris 7 e em Filosofia pela USP. Atualmente, leciona no Instituto de Biociências da USP, no IBMEC-SP e na Faculdade Paulo VI.

Confira a entrevista.

IHU – Qual a importância de refletir sobre a IA a partir de uma perspectiva ética? Quais as questões envolvidas nesta abordagem?

João Cortese – Eu trabalho com IA há cinco anos e é curioso que, nos anos anteriores, eu precisava justificar muito a razão de falar sobre ética da IA; parecia ser algo meramente de ficção científica, no mal sentido. Mas, desde o final de 2022, com a emergência do ChatGPT, só se fala em IA e ética.

Há um mês, diferentes figuras assinaram uma carta em que solicitavam uma pausa nos experimentos com IA em função da repercussão do uso do ChatGPT. Um importante cientista da computação, Eliezer Yudkowsky, disse que a carta é importante, mas explicou que não a assinou porque considera que a situação é mais grave ainda. Na avaliação dele, parar por seis meses é pouco; seria preciso parar indefinidamente. Por outro lado, uma série de especialistas questionaram se isso seria factível porque não é a mesma coisa controlar o desenvolvimento de IA do que controlar uma usina nuclear. Como controlar absolutamente a corrida sobre IA, sem negar que esta postura tem uma dimensão geopolítica e outras implicações? Como seria feito na prática?

Uma das respostas à carta foi dada por Timnit Gebru, Emily M. Bender, Angelina McMillan-Major e Margaret Mitchell, pesquisadoras em Ciências da Computação e Linguística Computacional, autoras do texto “‘Papagaios estocásticos’: o pedido de moratória para a IA e os riscos em jogo”.

Elas criticam a carta, dizendo que, talvez, pessoas como [Yuval] Harari ou [Elon] Musk estão focando demais nos riscos que a IA poderá gerar. Na ética, há uma discussão sobre o longo-prazismo, no sentido do que será da humanidade em um futuro distante. Sem negar a importância dessa perspectiva, pode-se colocar a questão sobre o que a IA apresenta enquanto problemas éticos hoje.

Discussões éticas

Vários são os temas éticos discutidos, como a privacidade dos dados, o viés dos algoritmos, o futuro do trabalho com o surgimento do ChatGPT, os impactos ambientais gerados pelo desenvolvimento da IA. Uma questão fundamental é a da explicabilidade. Ou seja, como lidamos com algoritmos que são caixas-pretas, que, num certo sentido, ninguém entende completamente. Como, então, podemos trabalhar com a responsabilização dos algoritmos? Há uma série de questões envolvidas, mas gostaria de reforçar que o campo da IA é muito rico e a filosofia pode ajudar a sociedade nesta discussão, trazendo pontos de vista para deliberar sobre alguns aspectos.

IHU – A IA pode ser tratada como um agente ético? Como tratar dilemas de responsabilização moral envolvendo o uso de IA?

João Cortese – Vou focar em questões que parecem meramente da ficção científica, que têm a ver com as fronteiras entre o ser humano e as inteligências artificiais ou os robôs, ou seja, a questão de quando devemos tratar o robô, ou a IA, como um agente ético. Alguns anos atrás, isso parecia ser simples ficção científica. No livro “O futuro da natureza humana”, Jürgen Habermas diz que a ficção científica pode ser importante para a filosofia no sentido de adiantar cenários futuros. Desse modo, por mais que algo pareça fictício, mesmo assim pode ser importante para nos preparar para o futuro.

A IA traz novos dilemas. Anteriormente, eu falava da explicabilidade ou da opacidade de algoritmos, que é algo novo para a IA, de um lado. Por outro lado, questões de privacidade de dados ou vieses racistas já existiam sem a IA, embora eles ganhem um novo interesse na medida em que a IA pode potencializar questões éticas relativas a esses temas. Neste sentido, a filosofia pode contribuir para o debate, ajudando a progredir no avanço científico, tecnológico, econômico, mas com reflexão.

O lema latino “Festina lente”, “mova-se rápido, mas devagar”, pode nos ajudar. Caso contrário, ficaremos naquela conversa de surdos, com os desenvolvedores dizendo que temos que desenvolver custe o que custar e, às vezes, o pessoal da filosofia sendo visto como os que se manifestam apenas para dizer que precisamos parar com o desenvolvimento porque determinadas coisas não devem ser feitas. Não é assim; é necessário travar um diálogo construtivo para pensar como gostaríamos que a IA se desenvolvesse para uma boa sociedade.

Estamos em um momento crítico; quando cientistas ou empresários – e não filósofos – pedem que a IA seja interrompida, isso mostra como a questão é urgente e compartilhada por uma ampla parte da sociedade.

Timnit Gebru diz que a linguagem da carta talvez seja problemática, no sentido de que infla as capacidades dos sistemas automatizados e os antropomorfiza, enganando as pessoas e as fazendo pensar que a máquina é um ser senciente, isto é, capaz de sensibilidade. Isso não apenas seduz as pessoas a confiarem acriticamente nos outputs de sistemas como o ChatGPT, mas também atribui, erroneamente, a capacidade de agência à máquina.

Responsabilização

A responsabilização propriamente dita não cabe aos artefatos, mas aos seus construtores. Este é o problema que eu gostaria de abordar. Ao lidar com o ChatGPT, podemos imaginar que existe um agente do outro lado. Mas quais são os critérios para considerarmos que existe, de fato, um agente particular, do ponto de vista ético, ao lidar com o sistema informatizado e automatizado? Alguns autores dizem que a responsabilização cabe aos construtores, e boa parte da literatura filosófica concordaria com isso.

No romance “O zen e a arte da manutenção de motocicletas”, Robert Pirsig escreve:

“O objeto material em questão, seja uma bicicleta ou uma churrasqueira, não é certo nem errado. Moléculas são moléculas. Não seguem códigos de ética, a não ser os que lhes são dados pelos homens.”

Nesse sentido, o programa de computador não seria responsabilizado; poderíamos pensar em responsabilizar o engenheiro ou o programador que está por trás dele. Qual é o problema disso? Com a IA ganhando graus de autonomia – não vou me pronunciar sobre em que medida um algoritmo pode ser autônomo ou não –, a responsabilização vai ficando mais difícil. Hoje, nós sabemos calcular o risco e a responsabilização para um engenheiro que constrói uma ponte e ela rompe, por exemplo. Nesse caso, é possível avaliar, a partir da perícia, se o engenheiro responsável pela construção da ponte é culpado ou não. Mas, no caso de um sistema de IA em particular, de deep learning, que foi alimentado por uma nova base de dados e promove erros inesperados para o programador, em que medida o programador deve ser responsabilizado? Isso não é óbvio.

Agente moral

A robô Sophia, que ganhou um rosto mais antropomórfico e cidadania pela Arábia Saudita em 2017, é um caso anedótico, mas que começou a levantar algumas das questões que estão presentes no debate de hoje. O agente moral é aquele que tem ações que podem ser caracterizadas como morais e que pode ser responsabilizado por elas. Tradicionalmente, a filosofia entendeu o agente moral como aquele que é capaz de pensar, falar ou sentir dor. Classicamente, isso se conjugava com a categoria de ser humano. Porém, cada vez mais tem sido questionado quais outras entidades, além de seres humanos, poderiam ser agentes morais. Um debate atual diz respeito ao papel dos animais não humanos na esfera ética e, cada vez mais, ao papel das IAs e dos robôs. Em outras palavras, quais deveriam ser os critérios para se dizer que um robô é um agente ético?

Robô Sophia: “Deveríamos ser parceiros, não substitutos” [CT Entrevista]:

Paciente moral

Por outro lado, podemos falar de paciência moral. O paciente moral seria aquele que sofreria ações com uma dimensão ética correspondente. Por exemplo, se insulto uma pessoa, isso é eticamente problemático. Se chuto uma pedra, alguém poderia argumentar que isso é eticamente neutro. Talvez não seja nem eticamente louvável nem eticamente censurável. Quanto às máquinas, insultar o ChatGPT é irrelevante, considerando que ele é apenas um algoritmo, ou haveria algum problema em relação ao que estou infringindo no ChatGPT? Para responder, vou usar o critério interacional, ou seja, o quanto a interação com o sistema de IA pode me responder sobre a caracterização desse sistema como um agente moral ou como um paciente moral.

Debate atual

No livro AI Ethics (2020), Mark Coeckelbergh diz que, do ponto de vista filosófico, houve uma época em que o Iluminismo e o Romantismo, nos séculos XVIII e XIX, discutiam o que a razão, de modo geral, e a ciência poderiam fazer para ajudar a humanidade. Hoje, Coeckelbergh diz que existem dois debates. Um, entre o humanismo e o transumanismo, no qual melhorar ou não melhorar a espécie humana seria a questão relevante. Os transumanistas propõem melhoramentos indefinidos e um novo humanismo problematiza essa compreensão. O outro debate é entre o humanismo e o pós-humanismo, e as questões que estou levantando – sobre se IA e robôs podem ser agentes éticos – se inserem nesse domínio que questiona o antropocentrismo e as fronteiras ontológicas entre humanos e não humanos. Uma vertente desse debate ocorre em relação ao direito de animais não humanos, na ética animal.

IHU – Como a ficção científica pode ajudar a compreender esse debate?

João Cortese – A ficção científica pode nos ajudar aqui. Pensemos nos seriados em que robôs humanoides convivem com humanos. Nesse contexto, surge a questão: será que o ser humano poderia torturar o robô humanoide e fazer com ele o que quisesse, por que se trata apenas de uma máquina? Ou não, haveria algum problema ético? Bloom e Harris (2018) publicaram um artigo discutindo a questão. Eles escreveram:

“Como saberemos se nossas máquinas se tornaram conscientes? Descartes argumentou que a consciência de si mesmo está além de qualquer possibilidade de dúvida. No caso de outros, nunca temos certeza absoluta. Muitos de nós cogitamos, mesmo que apenas por um momento, a ideia de que todo mundo pode ser um zumbi: rindo, chorando, reclamando, regozijando-se, mas ‘sem ninguém em casa’. Talvez os cientistas acabem descobrindo a assinatura da consciência, e então seremos capazes de testá-la em nossos robôs, assim como em animais e uns nos outros. Mas é certo que construiremos máquinas que parecerão conscientes muito antes de chegarmos a esse ponto.”

O problema da consciência

O problema da consciência é um problema caro para a filosofia da mente: o que caracteriza a consciência? O problema que eu gostaria de destacar é que, embora o robô e a IA não tenham consciência, se eles me demonstrarem ou me convencerem, por interação, que são suficientemente conscientes, ou, talvez, suficientemente sencientes, ou têm intencionalidade suficiente, isso já é relevante, eticamente, de um certo ponto de vista, mas talvez não o suficiente para caracterizá-los como agentes éticos.

Se uma máquina passar em um teste interativo, se me mostrar que pode fornecer o que espero dela – o que vou chamar de consciência –, isso lhe forneceria um estatuto de agente moral? A primeira questão é identificar quando a máquina me enganaria, indicando que tem algum atributo humano. Para responder a essa questão, precisamos começar falando do famoso teste de Turing, chamado de jogo da imitação.

Teste de Turing

Alan Turing é considerado o criador da computação moderna. Em um artigo publicado em 1950, intitulado “Computing Machinery and Intelligence”, ele faz uma discussão elaborada sobre como deveríamos avaliar a inteligência das máquinas. Ele diz que, filosoficamente, essa questão é muito complexa de ser respondida e propõe um teste em duas etapas. A primeira etapa seria aquela em que o entrevistador está em um ambiente e em outros dois ambientes estão um homem e uma mulher. Todos estão interagindo por meio de um chat e a ideia é que o homem e a mulher tentem enganar o entrevistador. O homem precisa se passar por mulher e a mulher, por homem. A pessoa que está no chat não sabe se está conversando com o homem ou com a mulher. A segunda etapa do teste consiste em ter uma pessoa numa sala e um computador na outra, ambos interagindo. Se o computador conseguisse enganar a pessoa, se passando por alguém, ele passaria no teste. De forma simplificada, poderíamos pensar o seguinte: se o computador consegue me enganar, passando-se por uma pessoa, por exemplo, através do ChatGPT, ele é suficientemente inteligente – sem entrar na problemática filosófica em torno deste termo.

Existem competições internacionais para saber se um sistema passa em um teste de Turing ou não. O caso clássico está sendo o ChatGPT. As pessoas conversam com o ChatGPT e ficam incomodadas com quão humano ele parece ser. Ele é seguramente humano para alguns usuários. Mas não se trata apenas de interações nos chats. Hoje, um sistema de IA pode ser capaz de fazer algo que antes atribuiríamos somente a um humano. Por exemplo, os sistemas de IA são capazes de sintetizar vozes de um modo que pode enganar o ser humano. Outro exemplo é a capacidade de um sistema de IA jogar xadrez ou outros jogos de tabuleiros, como mostra o caso mais recente da vitória do AlphaGo sobre o Lee Sedol [disputa de cinco jogos entre um supercomputador da Google, intitulado AlphaGo, contra o sul-coreano Lee Sedol no milenar jogo de tabuleiro Go, entre os dias 9 e 15 março de 2016 no Four Seasons Hotel da cidade sul-coreana de Seul]. Na arte, o Dall-E, da OpenAI, tem feito muito barulho. O sistema foi abastecido com um banco de dados das pinturas do Rembrandt e criou um retrato que, na verdade, não foi criado pelo pintor, mas por um algoritmo a partir do padrão das pinturas.

Então, hoje um sistema de IA pode dialogar por chat, se passando por um humano; ele pode sintetizar áudios, jogar xadrez ou fazer uma pintura. Será que robôs dotados de inteligência artificial poderiam conviver conosco de um modo humanoide?

Digamos que, olhando para um robô, eu não pudesse distinguir se é um ser humano ou um robô e, ao interagir com ele, eu não pudesse distinguir se ele tem uma inteligência natural ou artificial. Quais seriam as implicações éticas disso? Potencialmente, parece que as máquinas poderiam passar em qualquer teste interacional, afinal, o teste de Turing é focado na interação entre o humano e a máquina, isto é, a máquina poderia passar em qualquer teste interacional adaptável a ela. Se eu pedir para a máquina tocar piano, talvez ela consiga passar no teste, mas não necessariamente irá substituir o pianista ou terá talento musical. Não sou especialista nestas questões técnicas nem estou propondo previsões sobre em quantos anos a máquina poderá substituir um humano ou poderá se passar por um ser humano em cada dimensão da vida, mas a questão é: se podemos imaginar que [a máquina] vai se passar por um ser humano em algumas dimensões, quais seriam as implicações éticas?

Inteligência Artificial e as noções de interação, indistinguibilidade e alteridade:

IHU – Quais os critérios para refletir sobre essa questão?

João Cortese – Pensamos logo no comportamento, no behaviorismo e na psicologia que foi muito difundida nos EUA, que se compromete com a avaliação das ações dos seres humanos, argumentando que a causalidade destas ações são, talvez, uma caixa-preta que não podemos acessar, e busca modificar as ações por meio de reforço e inibição. Essa teoria foi usada para ensinar pombas a jogar tênis de mesa.

Theodore Dalrymple [pseudônimo de Anthony Daniels] problematiza essa questão: será que elas aprenderam a jogar tênis de mesa? Elas aprenderam, com a asa, jogar a bolinha por cima da rede para o outro lado da mesa, mas será que isso é jogar tênis de mesa? Nenhuma pomba sabe registrar os pontos, comemorar a vitória, chegar aos 21 pontos. Em outras palavras, ele diz, a interação, isto é, o fato de a pomba jogar a bolinha para o outro lado da rede com a asa não demonstra nenhum sinal de comportamento que indique que ela compreendeu o significado do que está fazendo.

A abordagem comportamental nos revela o comportamento, mas a referência causal sobre o sentido além do comportamento é muito delicada. Segundo o autor, o deslize, neste caso, está no fato de que aquilo que começou como uma metodologia tornou-se uma ontologia. Os behavioristas começaram a explicar que tudo que é humano é explicado por estímulo e resposta. Embora risível, disse Dalrymple, isso foi levado a sério por muitos.

A questão é a quem cabe o ônus da prova. Será que o ônus da prova está para quem quer mostrar que a máquina sabe pensar ou tem um estatuto moral, ou o ônus recai naqueles que querem mostrar que o ser humano tem algo além da máquina? O que o ser humano tem além da máquina? Alguém pode querer que demonstre que ele tem consciência, intencionalidade ou saber tácito. A interação, por exemplo, não demonstra intencionalidade. Há aqui uma questão de subdeterminação: não posso provar que a máquina não tem algo que o ser humano tem, mas também não consigo demonstrar algo que o ser humano tenha que a máquina não tem. Se os robôs e máquinas passam em testes interacionais, isso não me garante um atributo de agente ético. Não seria condição suficiente para atribuir agência moral.

Antropologia filosófica

A discussão sobre ética da IA é relevante para a filosofia porque nos faz voltar a uma antropologia filosófica fundamental: é como se tivéssemos um espelho na medida em que, conforme vamos discutindo IA, as questões voltam para o ser humano. Por exemplo, se vamos discutir se uma máquina tem inteligência ou não, temos que dar um passo atrás e perguntar o que é inteligência para o ser humano. Se vamos discutir se uma máquina é consciente ou não, tenho que perguntar o que é consciência para o ser humano, e assim por diante.

Minha proposta é que o critério inter-relacional não seria suficiente nem no campo dos homens nem no campo das máquinas – e talvez, no caso humano, haja algo a mais em relação à máquina.

Em lugar de tentar responder à questão a partir do ponto de vista da filosofia da mente, em vez de evocar as categorias de consciência e intencionalidade, vida humana, criatividade, faço uma analogia, tentando argumentar, com base na história da matemática – em particular do ponto de vista do cálculo e da análise –, como um comportamento semelhante não me responde sobre a ontologia. Por analogia, tentarei sustentar que a interação não é um critério suficiente para atribuir agência ou paciência moral à IA.

A analogia aqui é entre a máquina e o humano, por um lado, e entre o infinito e o indefinido, por outro. A questão é o que pode ser computável. Todo e qualquer sistema informacional sempre vai ser finito. Nunca teremos um poder computacional infinito. Isso faz com que quando um computador trate determinados dados da realidade, ele sempre tenha que simplificá-los de algum modo. No caso dos algoritmos que tratam de questões humanas, abstrações precisam ser feitas, categorizações, tipificações, e isso restringe o espaço de possibilidades.

A questão é: por mais que eles sejam redutores, esse finito já é suficientemente grande para nos satisfazer em certos aspectos. Se for ver tudo que uma rede social pode me apresentar, verei que os dados são finitos, mas é grande o suficiente a ponto de eu poder passar o dia inteiro e não chegar no fim. Do ponto de vista do ser humano, isso aparece como um certo infinito ou o que eu chamo de indefinido. O ChatGPT não é infinito, mas talvez ele seja grande o suficiente para ser análogo do ponto de vista do usuário à interação com o ser humano.

A física nunca é precisa; ela sempre precisa fazer simplificações, assim como qualquer modelo científico tem que fazer simplificação e abstração. Nunca vamos lidar com o exato. Isso se dá, sob um certo ponto de vista, não apenas com a ciências naturais, mas na própria matemática, em certo sentido. Na matemática, é possível ter tantos cálculos potentes quanto se queira, sem chegar no infinito; me basta o indefinido. Infinito e indefinido são indistinguíveis para os seres humanos. Talvez um programa seja tão potente, tenha tantos dados, que me parecem infinitos, mas não é por isso que ele é, de fato, infinito.

A ontologia digital é sempre finita, segundo Luciano Floridi. Neste caso, para o usuário, talvez sejam indistinguíveis o ChatGPT e o usuário humano. O ChatGPT talvez passe, em alguns aspectos, no teste de Turing. Mas será que deveríamos assumir a identidade dos indiscerníveis? Será que deveríamos dizer que, uma vez que o ChatGPT atua como ser humano, logo eles [ChatGPT e ser humano] são iguais? O ser humano é apenas uma máquina de cálculo? Esta é a questão. Eu estou tentando argumentar que eticamente isso não basta. A indistinguibilidade na interação não é um critério suficiente para identificar um agente ético.

IHU – Do ponto de vista ético, aonde isso leva?

João Cortese – Há dez anos, Bostrom e Yudkowsky publicaram um artigo sobre a ética dos agentes morais na IA. Segundo eles, por ora os agentes de IA não têm status moral. Eles argumentam que seria possível deletar um computador sem isso ter relevância ética. Mas quais seriam os critérios para que isto passasse a ter relevância ética? Eles propõem os seguintes critérios: senciência, ou seja, a capacidade para a experiência fenomenal; qualia, como a capacidade de sentir dor e sofrer; e sapiência, isto é, o conjunto de capacidades associadas, como maior inteligência, autoconsciência e ser um agente racional responsável. O problema é saber se a IA sente dor ou é racional. Ainda que os critérios do Bostrom e do Yudkowsky sejam interessantes, é complexo resolver essa questão na prática.

No ano passado, o engenheiro do Google, Blake Lemoine, disse que “deletar IA consciente é o mesmo que assassinato”. Isso foi visto como um exagero por muitos, mas, a questão aqui, novamente, é usar esses casos de fronteira para imaginar o que virá no futuro. Ainda que eu discorde da visão do Blake Lemoine, a questão é: o que um sistema de IA deveria ter para ser considerado um agente ético ou não?

Bostrom e Yudkowsky postulam dois princípios. Um deles é o Princípio da Não Discriminação do Substrato. Isto é, se dois seres têm a mesma funcionalidade e a mesma experiência consciente, e diferem apenas no substrato de sua aplicação, então eles têm o mesmo status moral. Se o ser humano viesse de uma clonagem ou de nascimento natural, eles teriam um estatuto comum do ponto de vista moral. Até aí tudo bem, mas, novamente, evoca-se a questão da experiência consciente. Esses autores dizem que a antropomorfização pode ser um risco porque, se começamos a falar de sistemas, de robôs como seres humanos, que aparecem como seres humanos, pode surgir a tentação irresistível de lidar com essas máquinas tais como seres humanos. O que dizer do ponto de vista ético se chegarmos a este ponto?

Do ponto de vista da ética, a categoria de alteridade pode ser interessante para pensar essa questão. A alteridade, o outro, do ponto de vista ético, vai sempre além do que eu gostaria de acreditar. Isso é uma pista para pensar que a alteridade, em um sentido forte, talvez seja a categoria ética que nos permita distinguir o agente moral humano da máquina. A máquina, sendo finita, ainda que indefinida, tem um limite de capacidade para me surpreender, enquanto o outro sempre vai além de mim. Essa é uma ética na qual a dimensão da relação com o outro precede a ontologia; a precedência é dada ao outro. O outro é infinitamente transcendente em relação a mim. Para [Emmanuel] Levinas, reduzir o outro ao mesmo, reduzir o outro ao eu, é perder a riqueza da interação humana ética. Nesse sentido, a alteridade, a relação com o outro, sempre é diferente, me incomoda um pouco, e me surpreende. É isso que talvez manifeste a qualidade ética do agente humano na concepção do Levinas. Será que uma máquina pode me trazer essa alteridade? Será que a alteridade da máquina sempre será limitada? A questão é se a alteridade da máquina pode ser tão radical quanto a do ser humano.

 

Leia mais