Inteligência artificial/ChatGPT. Uma perspectiva humanista. Entrevista especial com Marco Schorlemmer

“Como sociedade, precisamos crescer e superar a visão técnico-científica predominante da solução de problemas”, sugere cientista do Instituto de Pesquisa em Inteligência Artificial espanhol

Foto: Pixabay

Por: Edição: Patricia Fachin | 15 Junho 2023

A reflexão sobre as implicações éticas da aplicabilidade da Inteligência Artificial – IA em produtos que geram impactos na vida humana e socioambientais requer uma atenção “às suposições, motivações, direções de pesquisa que conduzem as práticas dos profissionais de IA”, as quais nem sempre são “explicitadas e trazidas à tona”, diz Marco Schorlemmer na videoconferência intitulada “Uma perspectiva humanista sobre inteligência artificial”, que integra o ciclo de estudos “Inteligência artificial, fronteiras tecnológicas e devires humanos”, promovido pelo Instituto Humanitas Unisinos – IHU.

Esclarecer a noção de inteligência que subjaz às pesquisas científicas, adverte, é fundamental para ampliar a nossa própria compreensão de inteligência e distinguir a capacidade intelectiva de uma máquina movida por IA da capacidade dos demais seres existentes no planeta, como o ser humano. Segundo ele, “a pesquisa científica sobre IA se baseia no entendimento de que o uso da inteligência é algo objetivo, observável e mensurável de entidades individuais. O que a IA acrescenta é uma suposição adicional de que a inteligência se baseia nas nossas capacidades de processamento de informações como organismos. Consequentemente, máquinas de processamento de informações, como computadores, podem, no fim das contas, também exibir comportamentos inteligentes. Agora, essa hipótese está baseada (…) em um mau uso ou em um abuso dos termos informação e inteligência”.

A inteligência que se manifesta nos seres humanos, esclarece, “não parte de uma inteligência baseada em processamento de dados, nem penso que seja uma inteligência de processamento de informações. Há, de fato, um aspecto de processamento de informações aí, mas esse entendimento de inteligência cobre apenas uma dimensão desse fenômeno, que poderíamos chamar de dimensão funcional da inteligência, já que ela enfoca simplesmente a sua função – seja na função de adaptação, seja na de resolução de problemas – para atingir metas para o sucesso, para a sobrevivência”. A inteligência humana, acrescenta Schorlemmer, contempla outras dimensões, como a avaliativa, a criativa e a libertadora.

Na avaliação dele, a pesquisa de IA precisa ser reorientada na direção de promover a liberdade criativa. “As ferramentas de IA, tais como o ChatGPT, estão promovendo a liberdade criativa, estão promovendo nossa inteligência em todas as suas dimensões, funcional, avaliativa e libertadora? Não sei. Infelizmente, grande parte da pesquisa de IA, hoje, está condicionada por algumas poucas empresas que dominam o desenvolvimento tecnológico e que, principalmente, seguem os princípios do raciocínio econômico”, observa.

A seguir, publicamos a videoconferência de Marco Schorlemmer no formato de entrevista. As demais palestras e a programação completa do ciclo de estudos “Inteligência artificial, fronteiras tecnológicas e devires humanos” estão disponíveis aqui. Em 05-07-2023, o Prof. Dr. Zhihan Lv, engenheiro e pesquisador de realidade virtual/aumentada e internet das coisas, ministrará a videoconferência “Implicações filosóficas sobre Inteligência artificial imersiva, interativa e generativa”.

Marco Schorlemmer. (Foto: Scientific and Medical Network)

Marco Schorlemmer é doutor em Informática pela Universitat Politècnica de Catalunya – UPC e cientista titular do Instituto de Pesquisa em Inteligência Artificial – IIIA-CSIC, financiado pelo Consejo Superior de Investigaciones Científicas, agência espanhola dedicada ao fomento da investigação científica e tecnológica.

Confira a entrevista.

IHU – O que podemos aprender com o desenvolvimento da IA?

Marco Schorlemmer – Vou refletir sobre a IA do ponto de vista humanista e, com isso, quero refletir sobre o que a pesquisa de IA pode ensinar a toda a humanidade sobre a nossa inteligência, sobre como entendemos a nossa inteligência e, acima de tudo, sobre a relação que pode existir entre a inteligência artificial e a inteligência humana.

A IA, como área de pesquisa, existe desde a década de 1950, embora seus fundamentos tecnológicos e matemáticos datam de 1930 e 1940. Durante 80 anos de pesquisa científica e tecnológica nesta área, muitas técnicas e aplicações surgiram e, gradualmente, foram introduzidas no nosso dia. Podemos encontrar técnicas de IA aplicadas em robótica industrial, logística, controle de eletrodoméstico, investimento no mercado de ações, em recomendações de produtos de consumo, em análise e classificação de imagens, buscas na internet, direção de carros automáticos, consumo eficiente de energia, jogos, geração de textos etc.

John McCarthy, um dos pioneiros da IA, dizia que assim que a inteligência artificial funcionasse ninguém mais iria chamá-la de inteligência artificial. Mas, apesar de oito décadas de pesquisas tecnológicas, é difícil dar uma definição precisa do que é a IA. Uma descrição comum é a que define a IA como a ciência de projetar sistemas e computadores para executar tarefas que normalmente exigiriam uma inteligência humana. Essa definição tem guiado a pesquisa de IA desde o início e tem sido uma definição útil para fazer pesquisa, mas, ao mesmo tempo, pode ser um pouco enganosa porque definir a IA, em comparação com a inteligência humana, gera a ideia de que a IA possa ser um candidato possível para substituir a inteligência humana.

Embora a IA tenha sido pesquisada desde a metade do século XX, foi somente na última década que ela ganhou muita atenção da indústria, da imprensa, das agências governamentais e da comunidade científica. O exemplo mais recente é toda atenção da mídia aos programas de linguagem GPT-3 e seu sucessor, o GPT-4, desenvolvidos pela empresa de tecnologia Open AI, e a aplicação da tecnologia de chatbot, como o ChatGPT. Isso se deve, em grande parte, às conquistas impressionantes dos sistemas baseados em IA para enfrentar problemas complexos que, até recentemente, tinham resistido a serem resolvidos por programas computacionais como, por exemplo, o processamento de linguagem e a geração de linguagem. Esses sucessos da IA foram atingidos utilizando um tipo de técnica algorítmica conhecida como aprendizagem profunda. Essa técnica se baseia nas chamadas redes neurais, que é o nome dado ao modelo computacional inspirado pela estrutura neural do cérebro, e na propagação de ondas eletromecânicas através das sinapses.

IHU – O que é essa técnica?

Marco Schorlemmer – Vou relembrar brevemente o que é essa técnica para nos ajudar a contextualizar a IA com a inteligência humana. Uma rede neural com a qual a técnica da aprendizagem profunda é realizada não é, realmente, uma rede nem é feita de neurônios. Ou seja, não é um cérebro eletrônico; é simplesmente uma função matemática que recebe alguns valores de entrada e computa alguns valores de saída. As redes neurais não são novas no campo da IA; seus fundamentos teóricos datam do início da pesquisa de IA em meados do século XX. Entretanto, o que mudou nas últimas décadas e levou aos recentes sucessos na aplicação dessa técnica é, por um lado, a velocidade e o poder computacional dos computadores atuais para calcular as funções matemáticas codificadas em redes de muitas camadas ocultas e intermediárias de neurônios, que estão ligadas ou não estão ligadas em valores de entrada e saída e, por outro lado, a imensa quantidade de dados disponíveis para treinar esses algoritmos que implementam as funções na IA para resolver problemas complexos. A ideia básica é que uma equipe de engenheiros e computadores altamente qualificados configura a técnica de aprendizagem profunda de modo que seja possível ajustar bilhões e bilhões de parâmetros do modelo, expondo o sistema computacional a um grande número de valores de entrada.

Digamos, por exemplo, que diferentes tipos de imagens de tomografias de cérebros, com o valor de saída, identifiquem a categoria adequada dessas imagens, isto é, se a tomografia mostra um determinado tipo de tumor cerebral ou não. É dito que o sistema computacional aprende a classificação dessas imagens e, após uma fase de treinamento, chega a uma taxa de sucesso adequada acerca delas, comparando as que são de tumores e as que não o são, podendo ser incluído em sistemas automatizados de diagnóstico. Até aqui temos uma explicação breve. Obviamente, deixei de fora uma série de detalhes e nuances, mas, falando amplamente, essa seria a ideia geral.

IHU – Eticamente, quais são os problemas relacionados à aplicação da IA?

Marco Schorlemmer – Na literatura científica, muitas aplicações dessa técnica são descritas e já alcançaram uma precisão que se compara ou supera à dos humanos, levando à expectativa de que talvez, no futuro próximo, muitas tarefas que agora são reservadas para serem realizadas por humanos possam ser executadas por sistemas de IA, até mesmo com resultados com melhor desempenho.

Obviamente, isso levanta muitas preocupações éticas sobre como sistemas baseados em IA devem ser empregados, implementados e utilizados na sociedade. Essas preocupações são cada vez mais urgentes à medida que esses sistemas serão aplicados, cada vez mais, em situações que ultrapassam a possibilidade de jogar jogos inofensivos ou utilizar essa ferramenta, como a realização de tarefas sensíveis, como diagnósticos médicos, aprovação de créditos, pedidos de liberdade condicional, vigilância ou até mesmo a guerra automatizada. Por este motivo, nos últimos anos temos visto muitas propostas de manifestos, declarações, diretrizes ou princípios que convidam a refletir sobre como garantir que o desenvolvimento e o emprego dos sistemas de informação não prejudiquem os seres humanos nem sejam prejudiciais às sociedades.

Declaração de Barcelona

Na União Europeia, os políticos estão desenvolvendo uma lei para regulamentar o desenvolvimento da aplicação da IA, classificando a tecnologia de IA de acordo com o risco de causar certos prejuízos. Sistemas de IA generativos, como o GPT, são sugeridos como sistemas de alto risco porque podem portar uma ameaça significativa à saúde, à segurança e aos direitos fundamentais das pessoas. Antes de empregar esse tipo de sistemas é necessário estabelecer avaliações compulsórias. Em 2017, o Instituto de Pesquisa em Inteligência Artificial – IIIA-CSIC apresentou a declaração de Barcelona para o desenvolvimento e uso adequado de desenvolvimento da IA na Europa [Barcelona Declaration for the Proper Development and Usage of Artificial Intelligence in Europe], que propõe um código geral de conduta para os profissionais de IA. Dos profissionais, por exemplo, exige prudência no emprego dos sistemas de IA, o que está faltando já que as tecnologias de alto risco subjacente a sistemas de IA generativos são empregadas sem prudência ou sem nenhuma avaliação de conformidade. Por exemplo, o ChatGPT, que é uma ferramenta que recebe um pedido em linguagem natural, vai tentar alcançá-la desdobrando-a em subtarefas, utilizando a internet e outras ferramentas para atingir o objetivo. Mas, com frequência, os sucessos na aprendizagem profunda geralmente são limitados a situações altamente restritas, com redes neurais cuidadosamente elaboradas e que muitas vezes são inapropriadas para o emprego em situações do mundo real. A aplicação prematura de IA pode ser decepcionante e até mesmo perigosa.

Outras questões levantadas pela Declaração de Barcelona são a confiabilidade, a responsabilidade, a autonomia limitada, que os sistemas de IA têm que apresentar, além de qual deve ser o papel humano nesses cenários altamente sensíveis. Essas diretrizes são um passo importante para aplicações benéficas e confiáveis de IA. Entretanto, o principal enfoque desses princípios e diretrizes é ainda nos resultados, nos efeitos dessas tecnologias. Raramente, as suposições, as motivações, as direções de pesquisa que conduzem as práticas dos profissionais de IA são explicitadas e trazidas à tona.

Uma perspectiva humanista sobre inteligência artificial

IHU – Pode nos dar exemplos das suposições que subjazem essas pesquisas?

Marco Schorlemmer – Vou refletir sobre uma dessas suposições básicas e motivações dos programas de pesquisa em IA. Para fazer isso, permita-me voltar há dois, três mil anos atrás, às origens do pensamento ocidental, especialmente ao pensamento da Grécia antiga. Embora, obviamente, tenhamos que situar o pensamento dos filósofos clássicos no contexto da nossa época, podemos pensar que herdamos um pensamento deles, qual seja, a grande importância que damos em ter inteligência, em ser inteligentes. Os gregos chamavam isso de razão ou racionalidade e a viam como uma parte integrante do intelecto, que distingue nós, humanos, do restante dos seres vivos. Possuir razão e inteligência é justificado, com o passar dos séculos, com a ideia de que os chamados seres racionais podem dominar a vida daqueles outros seres que não são considerados racionais e daqueles que são privados de razão ou inteligência. Quais seres são considerados dotados de racionalidade e inteligência e quais não o são? Isso mudou com o passar dos séculos, mas podemos dizer que a importância que damos à inteligência ainda é válida hoje.

Busca pela inteligência

Nesse sentido, a busca atual da IA deve ser entendida com relação à importância dada à inteligência no pensamento ocidental. Como consequência, por um lado, esperamos construir e programar sistemas computacionais que possam, no fim das contas, se tornar tão inteligentes como nós nos consideramos, e até mesmo superar a inteligência humana, de modo a poder resolver grandes problemas da humanidade. Ouvimos engenheiros e cientistas expressando a visão de que, com a IA, poderíamos inclusive erradicar doenças, a guerra e a pobreza. Por outro lado, também temos medo das máquinas superinteligentes que acabam nos dominando e nos explorando. Seguindo a lógica que aplicamos com o passar dos séculos e que justificou nossas estruturas de poder e dominância dos seres menos capazes, o motivo subjacente a essas mudanças e medos reside no entendimento desses fenômenos que chamamos de inteligência. É verdade que hoje muitos acadêmicos defendem uma compreensão mais ampla desse fenômeno, que vai além de uma visão limitada de IA baseada apenas em razão e racionalidade e pode ir além da esfera humana.

Hoje, os estudiosos estão atribuindo inteligência a animais e até mesmo a plantas, mas, mesmo assim, há certos aspectos do entendimento atual, da nossa inteligência, que são inquestionáveis. Um deles é que a inteligência é reconhecida pela capacidade que temos de aprender, de nos adaptar e termos sucesso nas nossas interações com outros organismos e o meio ambiente. Entendemos a inteligência como algo que pode ser observável, podemos vê-la e reconhecê-la em outra pessoa. É razoável dizer que somos mais inteligentes, nos adaptamos melhor. Se nos adaptamos melhor e temos sucesso, significa que a inteligência é mensurável e podemos determinar, até certo ponto, se uma pessoa é mais inteligente do que outra. Ao mesmo tempo, a inteligência pode ser atribuída a entidades individuais, animais ou plantas, ou seja, é uma propriedade dessas entidades.

Pressuposto da pesquisa científica

A pesquisa científica sobre IA se baseia no entendimento de que o uso da inteligência é algo objetivo, observável e mensurável de entidades individuais. O que a IA acrescenta é uma suposição adicional de que a inteligência se baseia nas nossas capacidades de processamento de informações como organismos. Consequentemente, máquinas de processamento de informações, como computadores, podem, no fim das contas, também exibir comportamentos inteligentes. Agora, essa hipótese está baseada, a meu ver, em um mau uso ou em um abuso dos termos informação e inteligência.

É bom recordar que os computadores, essencialmente, são máquinas processadoras de dados, que não são nem mesmo processadores de informações; são processadores de dados, com dados codificados e digitalizados. A informação, entretanto, é uma forma abstrata de conhecimento baseada nas regularidades que nós, seres humanos, observamos e percebemos no mundo e que utilizamos para prever e controlar certos fenômenos. Como tais, essas informações e a forma de conhecimento caracterizam as tecnociências. Agora, informação, de fato, é um conceito humano, tem significado para nós, humanos, e somos nós que fazemos o processamento de dados. Os computadores apenas processam formas digitalizadas de números e fazem isso sem mesmo saber o que é um número ou até mesmo o que a representação de um número é, ou o que é processar uma dessas representações. Eles fazem esse processamento sem saber nada, absolutamente nada.

Quando falamos em base de conhecimento, aprendizagem de máquina, de agente autônomo, racional ou criatividade computacional, estamos expandindo o significado que esses termos tinham originalmente, mas também estamos gerando uma certa confusão sobre do que são capazes os sistemas computacionais.

IHU – O que distingue a inteligência humana da inteligência das máquinas?

Marco Schorlemmer – A inteligência que se manifesta nos seres humanos não parte de uma inteligência baseada em processamento de dados, nem penso que seja uma inteligência de processamento de informações. Há, de fato, um aspecto de processamento de informações aí, mas esse entendimento de inteligência cobre apenas uma dimensão desse fenômeno, que poderíamos chamar de dimensão funcional da inteligência, já que ela enfoca simplesmente a sua função – seja na função de adaptação, seja na de resolução de problemas – para atingir metas para o sucesso, para a sobrevivência.

Dimensões da inteligência humana

Mas, além da dimensão funcional, é justo dizer que a inteligência também tem uma dimensão importante, a avaliativa, que é a que dá sentido e valor ao que fazemos e nos conecta com a dimensão estética da vida. Os artistas exploram essa dimensão da inteligência. O conhecimento, então, é um aspecto importante da inteligência, onde essas duas dimensões – a funcional e a avaliativa – são consideradas. O conhecimento não é apenas descritivo. O que seria seu conteúdo abstrato parte de uma perspectiva humana; ele vem carregado de sentidos, emoções, valores, ou seja, de como é uma pessoa.

Por exemplo, podemos ter informações sobre o que é uma certa doença como o câncer e o que ela causa ao corpo humano, e podemos ter informações sobre a melhor forma de lidar e enfrentar essa enfermidade, através de medicamentos e terapias, mas é uma coisa totalmente diferente saber como o câncer está afetando seu próprio corpo ou o corpo de um ente querido e saber o que significa lidar com essa doença, sofrendo, fazendo tratamento, ou seja, lidando com todo o conteúdo emocional e avaliativo envolvido na questão. A dimensão avaliativa da inteligência, assim como a funcional, é relativa às nossas necessidades como seres vivos e é condicionada pela nossa biologia. No fim das contas, a nossa inteligência depende de nossas interações corporais com outros organismos e com o ambiente; funcionamos e experimentamos de forma diferente em comparação com outros seres vivos. O que funciona, aquilo que tem valor e é valioso para nós talvez não seja para outros seres vivos. Então, a nossa inteligência e o nosso conhecimento são relativos às nossas necessidades. Porém, a consciência de que nossa inteligência está sempre relativa e contingente às nossas necessidades como seres humanos, de fato, nos liberta dessa relatividade, nos libera de sermos pegos em uma realidade particular que conceitualizamos, experimentamos e vivemos, uma realidade em particular que sentimos e da qual fazemos sentido em um determinado espaço e tempo na história.

Conhecimento e desconhecimento

A consciência da relatividade da nossa consciência funcional e avaliativa constitui a intuição libertadora porque agora podemos entender que esse mundo em que vivemos, que podemos chamar de realidade, não é alcançado completamente em relação àquilo que conceitualizamos, percebemos ou experimentamos sobre ele. Não conseguimos entender todo ato relativo de conhecer porque isso está emaranhado com uma dimensão de não conhecer, de desconhecimento – a melhor expressão seria do desconhecimento. Essa dimensão do desconhecimento que liberta nosso vínculo com a relatividade do conhecimento está em contraste com a relatividade das nossas necessidades humanas e liga a dimensão da realidade que não é relativa às nossas necessidades humanas e que, por este motivo, não é conhecível precisamente em função de não ser relativa. Essa dimensão, de fato, é a fonte para mudar o nosso entendimento relativo da realidade, para mudar a forma da realidade como nós a conceitualizamos e a vivenciamos. Isso nos dá a capacidade de responder, de forma criativa, a essa realidade e sermos cocriadores da realidade, de participarmos neste dinamismo contínuo do tornar-se. É nesse sentido que a realidade é completamente livre e cada ato criativo surge dessa dimensão da realidade. O progresso técnico-científico não seria possível sem essa resposta livre e criativa que temos em mudar nosso entendimento relativo do mundo. É isso que chamo de dimensão libertadora da inteligência.

A vida pelo ralo – A existência humana no tempo da IA:

IHU – Como compreende a noção de desconhecido?

Marco Schorlemmer – O desconhecimento do qual falei não deve ser entendido como “não saber”, como ignorância. Ignorância é ter uma falta de conhecimento sobre algo que pode ser conhecido. Ignorância pode ser prejudicial à nossa sobrevivência como seres humanos. Por exemplo, se eu não souber o que é um sinal vermelho em um cruzamento numa sociedade contemporânea, isso pode ser perigoso. Nas sociedades baseadas em inteligência, a ignorância pode ser muito perigosa. Mas uma sociedade baseada em inteligência se baseia no tipo de conhecimento que chamamos de informação, que é uma forma abstrata do conhecimento, que é a característica das tecnociências. O progresso científico foca-se na geração deste conhecimento informativo.

Voltando à IA, vemos que ela pode ser uma maravilhosa ferramenta nessa dimensão do conhecimento informacional. Ela pode ser uma ferramenta maravilhosa para entender o funcionamento das doenças, da pandemia, do nosso sistema imunológico e pode ser maravilhosa para a eficácia de certos medicamentos, para enfrentar algumas doenças, para evitar a disseminação e evolução de doenças e para estimular a comunicação e cooperação entre as equipes de seres humanos, de modo a enfrentar os desafios que a humanidade tem. A IA pode ser uma ferramenta maravilhosa para gerenciar, administrar e processar o conhecimento informativo que geramos com o passar dos séculos. Mas a IA não pode ser útil apenas sozinha; ela não tem valor sem se integrar com todas as dimensões do conhecimento. Os computadores fazem cálculos computacionais sem conhecer o que é um número ou sem saber o que é uma computação, e sem saber o que é nada. O papel da IA, então, deve estar situado no entendimento mais amplo de conhecimento e inteligência, com a dimensão funcional do processamento de informações, mas também com a dimensão avaliativa de viver, sentir, sofrer e desfrutar e, obviamente, com a dimensão libertadora, aquela que nos conecta com o dinamismo criativo do tornar-se contínuo, que está no centro da nossa origem, da nossa realidade.

IHU – Essa compreensão ampliada de conhecimento, inteligência e IA implica em que compreensão ética?

Marco Schorlemmer – Quando abordamos questões éticas em torno da IA e de sua implementação na sociedade, precisamos ir um pouco mais além do entendimento atual da IA como uma propriedade objetiva observável e mensurável das entidades individuais. Ou seja, dessa visão da inteligência que é principalmente baseada no processamento de conhecimento informacional porque, ao ficar nesse nível de processamento informacional, nós não chegamos ao nível de valor do nosso conhecimento experiencial, que é diretamente relevante para as questões éticas e morais. Mas ainda mais importante é recuperarmos a dimensão libertadora da inteligência, que vem de estarmos cientes de que o conhecimento é sempre relativo às nossas necessidades como seres ou organismos vivos. Esse conhecimento está emaranhado com o desconhecimento, que é encontrado na liberdade criativa da realidade propriamente dita.

Então, tentar abordar essas questões éticas da IA através de modelos teóricos computacionais e informacionais, embora seja feito com boas intenções, em minha opinião, não é apenas insuficiente, mas também carrega um risco de degradar esses problemas como se eles pudessem ser resolvidos efetivamente em um nível de processamento de informações.

IHU – Pode nos dar um exemplo?

Marco Schorlemmer – Suponho que já tenham ouvido sobre o problema do trolley [The Trolley Problem], proposto para refletir sobre o conteúdo ético de um processo decisório. Esse programa foi levantado na década de 1960, mas ganhou notoriedade novamente com a possibilidade dos carros autônomos baseados nos sistemas de IA.

O problema fala de um trem que sai do controle e tem que ser desviado, passando de um trilho para o outro, mas em ambos os trilhos há problemas: em um deles está um funcionário trabalhando e, no outro, estão pessoas. O maquinista tem que dirigir o trem em uma direção e tem que decidir o que fazer. Há muitas variantes desse problema, onde o trabalhador é substituído por uma criança brincando e o outro grupo de pessoas é substituído por um grupo de idosos. Há uma série de variantes envolvidas acerca de qual decisão deve ser tomada e quais são as implicações éticas e morais envolvidas. Agora, a análise das questões morais e éticas, ao se estudar problemas ao estilo desse problema do trem, é realizada principalmente a partir da dimensão funcional e informacional, abstraindo a dimensão experiencial da tomada de decisão que ocorre nesse momento específico do evento e que pode fazer surgir um resultado totalmente novo. Essa análise também não capta a dimensão libertadora que pode fazer surgir uma solução totalmente criativa para essa situação, a qual não podemos prever no momento.

Mind Field S2 - The Greater Good (Episode 1):

Crescer e superar a visão técnico-científica de solução de problemas

O sistema de processamento de dados, que não faz nada, não pode saber o que significa agir eticamente em uma sociedade humana, muito menos estar ciente da dimensão do desconhecimento para poder responder e agir criativamente numa determinada situação. Como sociedade, precisamos crescer e superar a visão técnico-científica predominante de solução de problemas. Ou seja, o acúmulo de conhecimento informacional obviamente é necessário para tratar de muitos dos desafios que enfrentamos na sociedade atual, mas também precisamos crescer na consciência da liberdade criativa que é a origem da nossa realidade e, para a pesquisa de IA em particular, crescer em uma consciência da nossa inteligência multidimensional totalmente incorporada. Crescendo na avaliação de conhecimento e desconhecimento, poderemos não apenas não sermos pegos nas metáforas e modelos atuais, mas ir além deles e reavaliar até que ponto o objetivo original da IA – de dar às máquinas mais autonomia e inteligência – é, de fato, valioso como meta científica. Pode ser que estejamos desperdiçando muito esforço indo na direção errada.

Transcender o entendimento de inteligência

Nosso entendimento atual de inteligência, que também deve ser transcendido, é essa visão de que nós temos a inteligência como um atributo das entidades individuais. Acredito que a visão de inteligência que ressalta como uma característica da realidade propriamente dita, na qual participamos como seres humanos, talvez seja mais apropriada.

Vamos promover esta mudança de paradigma: não ver a inteligência como um atributo que possuímos enquanto indivíduos, porque os seres humanos não podem ser indivíduos isolados. Por meio do nosso entendimento, com a interação com o ambiente e participando na sociedade, é que nós nos constituímos como seres humanos inteligentes. Agora, a tecnologia que desenvolvemos sob o rótulo de IA já está transformando a nossa realidade, criando realidades, para estender a relação entre nós em um ambiente que também está mudando.

Portanto, a inteligência artificial igualmente se transforma ou transforma essa inteligência artificialmente incorporada e se manifesta nas nossas interações. É nessas novas realidades, que são altamente dinâmicas e que estão em constante transformação, que as novas formas de ver e sentir precisam ser exploradas. Precisamos aprender a viver plenamente a nossa inteligência em todas essas dimensões.

Inteligência Espiritual, por Dr. Francesc Torralba:

Reorientar a pesquisa de IA

Talvez devamos reorientar a pesquisa de IA na direção que promova a liberdade criativa dos seres humanos, de todos os seres humanos e de todo o ambiente. As ferramentas de IA, tais como o ChatGPT, estão promovendo a liberdade criativa, estão promovendo nossa inteligência em todas as suas dimensões, funcional, avaliativa e libertadora? Não sei. Infelizmente, grande parte da pesquisa de IA, hoje, está condicionada por algumas poucas empresas que dominam o desenvolvimento tecnológico e que, principalmente, seguem os princípios do raciocínio econômico. Portanto, as técnicas de IA aplicadas na sociedade estão reforçando as estruturas de poder atuais com relação à distribuição de poder e às desigualdades; elas estão limitando a nossa inteligência e ameaçam nossa liberdade criativa. Deveríamos ter medo da racionalização e programação constantes do nosso comportamento humano através da digitalização e vigilância em massa, realizada por grandes empresas de tecnologia, que são o resultado do fato de darmos importância excessiva à dimensão funcional da inteligência.

Consequentemente, creio que os pesquisadores de IA devem fazer um esforço para nos dar as ferramentas tecnológicas que estimulam a colaboração conjunta e a colaboração de entidades computacionais com seres humanos que se baseiam na interação respeitosa com o meio ambiente e que promovam o que poderíamos chamar de uma inteligência ecológica, uma inteligência compartilhada que surge da comunicação e colaboração de mentes abertas para atingir uma plenitude humana com os seres vivos.

Leia mais