23 Mai 2023
“Agora, surge a possibilidade de que, em algum momento, o autômato seja capaz de eliminar o fator caótico da única forma possível: acabando com a sociedade humana”, escreve Franco ‘Bifo’ Berardi, filósofo e ativista italiano, em artigo publicado por Ctxt, 20-05-2023. A tradução é do Cepat.
“A escrita metódica me distrai da presente condição dos homens. A certeza de que tudo está escrito nos anula ou nos fantasmagoriza. Conheço distritos em que os jovens se prostram diante dos livros e beijam com barbárie as páginas, mas não sabem decifrar uma única letra. As epidemias, as discórdias heréticas, as peregrinações que inevitavelmente degeneram em bandoleirismo, dizimaram a população. Acredito ter mencionado os suicídios, cada ano mais frequentes. Talvez me enganem a velhice e o medo, mas suspeito que a espécie humana – a única – está por extinguir-se e que a Biblioteca perdurará: iluminada, solitária, infinita, perfeitamente imóvel, armada de volumes preciosos, inútil, incorruptível, secreta”. (Jorge Luis Borges, A Biblioteca de Babel)
Nesta passagem do relato que Borges publicou, em 1941, está todo o nosso presente: a desintegração da civilização humana, o fanatismo religioso dos jovens que beijam as páginas do livro que não sabem nem ler, as epidemias, as discórdias, migrações que degeneram em bandoleirismo e dizimam a população. E, por fim, os suicídios, cada ano mais frequentes.
Uma boa descrição da terceira década do século XXI.
Finalmente, Borges anuncia que a Biblioteca não está destinada a desaparecer com a humanidade: permanece solitária, infinitamente secreta e perfeitamente inútil.
Então, a imensa biblioteca de dados registrada por sensores visuais, sonoros e gráficos inseridos em todos os cantos do planeta continuará alimentando eternamente o autômato cognitivo que está substituindo os frágeis organismos humanos, envenenados por miasmas, dementes ao ponto do suicídio? É o que diz Borges, quem sabe.
Durante a era moderna, como havia dito Francis Bacon, o conhecimento era um fator de poder sobre a natureza e os outros, mas a partir de certo momento a expansão do conhecimento técnico começou a funcionar ao contrário: não há mais próteses do poder humano, a tecnologia foi transformada em um sistema dotado por uma dinâmica independente, dentro da qual estamos presos.
As tecnologias digitais criaram as condições para a automatização da interação social, a ponto da vontade coletiva se tornar inoperante.
Em Out of control (1993), Kevin Kelly previu que as então nascentes redes digitais criariam uma Mente Global à qual as mentes subglobais (individuais, coletivas ou institucionais) teriam que ser obrigadas a se submeterem.
Enquanto isso, desenvolvia-se a pesquisa sobre Inteligência Artificial (IA), que hoje atinge um nível de maturidade suficiente para prefigurar a inscrição no corpo social de um sistema de concatenação de inúmeros dispositivos capazes de automatizar as interações cognitivas humanas.
A sociedade planetária está cada vez mais cheia de automatismos técnicos, mas, de forma alguma, isto elimina o conflito, a violência e o sofrimento. Não se vislumbra harmonia, nenhuma ordem no planeta parece se estabelecer.
O caos e o autômato coexistem se entrelaçando e se alimentando.
O caos alimenta a criação de interfaces técnicas de controle automático, que permitem apenas a continuidade da produção de valor. Contudo, a proliferação de automatismos técnicos, desafiados pelas inúmeras instâncias do poder econômico, político e militar em conflito, acaba alimentando o caos, em vez de reduzi-lo.
Será sempre assim ou haverá um curto-circuito e o caos se apoderará do autômato? Ou, ao contrário, o autômato será capaz de se libertar do caos, eliminando o seu agente humano?
Nas páginas finais do romance O Círculo, de Dave Eggars, Ty Gospodinov confessa à Mae sua impotência diante da criatura que ele mesmo concebeu e construiu, a monstruosa empresa tecnológica constituída pela convergência do Facebook, Google, PayPal, YouTube e muito mais. “Não queria que acontecesse o que está ocorrendo”, diz Ty Gospodinov, “mas agora não posso mais evitar”.
A completude se destaca no horizonte do romance, o fechamento do círculo: tecnologias de coleta capilar de dados e inteligência artificial se conectam perfeitamente em uma rede ubíqua de geração sintética de realidade compartilhada.
O estágio atual de desenvolvimento da IA provavelmente está nos levando ao limiar de um salto para a dimensão que eu definiria como a do “autômato cognitivo global”.
O autômato não é um análogo do organismo humano, mas a convergência de inúmeros dispositivos gerados por inteligências artificiais dispersas. A evolução da IA não leva à criação de androides, à simulação perfeita do organismo consciente, mas, ao contrário, manifesta-se como a substituição de habilidades específicas por autômatos pseudocognitivos que se encadeiam, convergindo no autômato cognitivo global.
Em 28 de março de 2023, Elon Musk e Steve Wozniak, seguidos por mais de mil grandes operadores de alta tecnologia, assinaram uma carta propondo uma moratória da pesquisa no campo da IA:
“Os sistemas de IA estão se tornando competitivos com os humanos em tarefas gerais, e temos que nos perguntar se devemos permitir que as máquinas inundem nossos canais de informação com propaganda e falsidades. Devemos permitir que todas as atividades de trabalho sejam automatizadas, incluindo as gratificantes? Deveríamos desenvolver mentes não humanas que possam nos superar em número e eficácia, para nos tornar obsoletos e nos substituir? Devemos nos arriscar a perder o controle de nossa civilização? Tais decisões não podem ser delegadas a líderes tecnológicos não eleitos. Sistemas poderosos de inteligência artificial devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis. Portanto, pedimos a todos os laboratórios de IA para que suspendam imediatamente, por pelo menos seis meses, o treinamento dos sistemas de IA mais poderosos que o GPT-4. Essa pausa deve ser pública e verificável, e deve incluir a todos os principais atores. Se tal pausa não for implementada, os governos devem intervir e instituir uma moratória”.
Depois, no início de maio de 2023, difundiu-se a notícia de que Geoffrey Hinton, um dos primeiros criadores de redes neurais, decidiu deixar o Google para poder falar abertamente sobre os perigos implícitos na inteligência artificial.
“Alguns dos perigos dos chatbots de IA são bastante assustadores”, disse Hinton à BBC, “porque podem superar os humanos e podem ser usados por agentes maliciosos”.
Além de antecipar a possibilidade de manipulação da informação, o que preocupa Hinton é “o risco existencial que surgirá quando esses programas forem mais inteligentes do que nós. É como se você tivesse 10.000 pessoas e sempre que uma pessoa aprendesse algo, todos automaticamente soubessem. E é assim que esses chatbots podem saber muito mais do que qualquer pessoa”.
A vanguarda ideológica e empresarial do neoliberalismo digital parece atemorizada com o poder do Golem e, como aprendizes de feiticeiro, os empresários da alta tecnologia pedem uma moratória, uma pausa, um período de reflexão.
A mão invisível não funciona mais? A autorregulação do Rede-Capital não está mais na agenda?
O que está acontecendo? O que vai acontecer? O que está prestes a acontecer?
São três perguntas distintas. Sabemos mais ou menos o que está acontecendo: graças à convergência da coleta em massa de dados, de programas capazes de reconhecimento e recombinação, e graças a dispositivos de geração linguística, está surgindo uma tecnologia capaz de simular habilidades inteligentes específicas: papagaios estocásticos.
O que está a ponto de acontecer é que os papagaios estocásticos, graças às suas habilidades de autocorreção e de escrever software evolutivo, estão fadados a acelerar em grande medida a inovação técnica, especialmente a inovação técnica de si mesmos.
O que poderia acontecer e provavelmente acontecerá: os dispositivos inovadores de autocorreção (aprendizagem profunda) determinam seu propósito independentemente do criador humano. Nas garras da concorrência econômica e militar, a pesquisa e a inovação não podem ser suspensas, especialmente quando pensamos na aplicação da IA no campo militar.
Penso que os aprendizes de feiticeiro estão percebendo que a tendência à autonomia dos geradores de linguagem (autonomia em relação ao criador humano) está gerando habilidades inteligentes mais eficientes do que as do agente humano, embora em um campo específico e limitado.
Então, as habilidades específicas convergirão para a concatenação de autômatos autodirigidos para os quais o criador humano original poderá se tornar um obstáculo a ser eliminado.
No debate jornalístico sobre este assunto, prevalecem posições de cautela: são denunciados problemas como a difusão de notícias falsas, a incitação ao ódio e manifestações racistas implícitas. Tudo isso é verdade, mas não muito relevante.
Durante anos, as inovações em tecnologia da comunicação aumentaram a violência verbal e a idiotice. Não pode ser isso o que preocupa os mestres do autômato, aqueles que o conceberam e estão realizando a sua implementação.
O que preocupa os aprendizes de feiticeiro, na minha humilde opinião, é a consciência de que o autômato inteligente, dotado de capacidades de autocorreção e autoaprendizagem, está destinado a tomar decisões autônomas em relação ao seu criador.
Pensemos em um automatismo inteligente inserido no dispositivo de controle de um aparato militar. Até que ponto podemos ter certeza de que ele não evoluirá de forma inesperada, talvez chegando a atirar em seu dono ou deduzindo logicamente dos dados de informação que pode acessar a urgência de se lançar a bomba atômica?
A máquina linguística que responde às perguntas é uma demonstração de que Chomsky tem razão quando diz que a linguagem é o produto de estruturas gramaticais inscritas na herança biológica humana, dotadas de um caráter generativo, ou seja, capazes de gerar infinitas sequências dotadas de significado.
Contudo, o limite do discurso de Chomsky reside justamente na recusa em ver o caráter pragmático da interpretação dos signos linguísticos. Da mesma forma, o limite do chatbot GPT consiste justamente em sua impossibilidade de ler pragmaticamente as intenções de significado.
Generative Pre-Trained Transformer (GPT) é um programa capaz de responder e conversar com um ser humano graças à capacidade de recombinar palavras, frases e imagens recuperadas da rede linguística objetivada na internet.
O programa generativo foi treinado para reconhecer o significado de palavras e imagens, e possui a capacidade de organizar declarações sintaticamente. Possui a capacidade de reconhecer e recombinar o contexto sintático, mas não o pragmático, ou seja, a dimensão intensiva do processo de comunicação, porque esta capacidade depende da experiência de um corpo, experiência que não está ao alcance de um cérebro sem órgãos. Os órgãos sensoriais constituem uma fonte de conhecimento contextual e autorreflexivo que o autômato não possui.
Do ponto de vista da experiência, o autômato não compete com o organismo consciente. Mas, em termos de funcionalidade, o autômato (pseudo)cognitivo é capaz de superar o agente humano em uma habilidade específica (calcular, fazer listas, traduzir, apontar, disparar etc.).
O autômato também está dotado da capacidade de aperfeiçoar seus procedimentos, ou seja, de evoluir. Em outras palavras, o autômato cognitivo tende a modificar os propósitos de seu funcionamento, não apenas os procedimentos.
Uma vez desenvolvidas as habilidades de autoaprendizagem, o autômato está em condições de tomar decisões relativas à evolução dos procedimentos, mas também, fundamentalmente, de tomar decisões relativas aos próprios fins do funcionamento automático.
Graças à evolução dos papagaios estocásticos em agentes linguísticos capazes de autocorreção evolutiva, a linguagem, tornada capaz de se autogerar, torna-se autônoma do agente humano, e o agente humano se envolve progressivamente na linguagem.
O humano não é subsumido, mas envolvido, encapsulado. A subsunção total implicaria uma pacificação do humano, uma completa aquiescência: uma ordem, finalmente.
Finalmente, uma harmonia, ainda que totalitária. Mas, não. A guerra predomina no panorama planetário.
Quando os aprendizes de feiticeiro perceberam as possíveis implicações da capacidade autocorretora e, portanto, evolutiva da inteligência artificial, começaram a falar sobre a ética do autômato, ou alinhamento, como se diz no jargão filosófico empresarial.
Em sua pomposa apresentação, os autores do chatbot GPT declaram que sua intenção é inscrever critérios éticos alinhados com os valores éticos humanos em seus produtos.
“Nossa pesquisa de alinhamento tem como objetivo alinhar a inteligência artificial geral (IAG) com os valores humanos e seguir a intenção humana. Adotamos um enfoque interativo e empírico: ao tentar alinhar sistemas de IA altamente capazes, podemos aprender o que funciona e o que não, refinando, assim, nossa capacidade de tornar os sistemas de IA mais seguros e alinhados”.
O projeto de inserir regras éticas na máquina generativa é uma velha utopia da ficção científica, a respeito da qual Isaac Asimov foi o primeiro a escrever, quando formulou as três leis fundamentais da robótica. O próprio Asimov demonstra narrativamente que essas leis não funcionam.
E, afinal, quais padrões éticos deveríamos incluir na inteligência artificial?
A experiência de séculos mostra que um acordo universal sobre regras éticas é impossível, uma vez que os critérios de avaliação ética estão relacionados aos contextos culturais, religiosos, políticos e aos imprevisíveis contextos pragmáticos da ação. Não existe uma ética universal, a não ser a imposta pela dominação ocidental que, no entanto, começa a se romper.
Obviamente, qualquer projeto de inteligência artificial incluirá critérios que correspondem a uma visão de mundo, uma cosmologia, um interesse econômico, um sistema de valores em conflito com outros. Naturalmente, cada um reivindicará a universalidade.
Em termos de alinhamento, ocorre o contrário do que prometem os construtores do autômato: não é a máquina que se alinha com os valores humanos, que ninguém sabe exatamente quais são. Mas, são os humanos que devem se alinhar aos valores automáticos do artefato inteligente, seja quando é o caso de assimilar os procedimentos indispensáveis para interagir com o sistema financeiro ou quando se trata de aprender os procedimentos necessários para utilizar os sistemas militares.
Penso que o processo de autoformação do autômato cognitivo não pode ser corrigido por lei ou por normas éticas universais, nem pode ser interrompido ou desativado.
A moratória solicitada pelos aprendizes de feiticeiro arrependidos não é realista, e menos ainda a desativação do autômato. A isso se opõe tanto a lógica interna do próprio autômato quanto as condições históricas em que o processo se desenvolve, que são as da concorrência econômica e a guerra.
Em condições de concorrência e guerra, todas as transformações técnicas capazes de aumentar o poder produtivo ou destrutivo estão destinadas a serem implementadas.
Isso significa que não é mais possível deter o processo de autoconstrução do autômato global.
“Estamos abrindo as tampas de duas gigantes caixas de Pandora”, escreve Thomas Friedman, em um editorial do The New York Times: “A mudança climática e a inteligência artificial”.
Algumas frases do artigo me chamaram a atenção:
“A engenharia está até certo ponto à frente da ciência. Isto significa que mesmo aqueles que estão construindo os chamados modelos de linguagem extensivos que subjazem em produtos como o ChatGPT e Bard não entendem completamente como funcionam, nem o alcance total de suas capacidades”.
Provavelmente, a razão pela qual uma pessoa como Hinton decidiu abandonar o Google e tomar a liberdade de alertar o mundo sobre o perigo extremo seja a consciência de que o dispositivo possui a capacidade de se autocorrigir e redefinir seu propósito.
Onde está o perigo de um ente que, sem possuir inteligência humana, é mais eficiente do que o homem na realização de tarefas cognitivas específicas, e possui a capacidade de aperfeiçoar seu próprio funcionamento?
A função geral do ente inteligente inorgânico é introduzir a ordem da informação no organismo impulsor.
O autômato tem uma missão ordenadora, mas encontra em seu caminho um fator de caos: a pulsão orgânica, irredutível à ordem numérica.
O autômato estende seu domínio a campos sempre novos da ação social, mas não consegue completar sua missão, enquanto sua expansão se vê limitada pela persistência do fator caótico humano.
Agora, surge a possibilidade de que, em algum momento, o autômato seja capaz de eliminar o fator caótico da única forma possível: acabando com a sociedade humana.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
O autômato e o fator caótico. Artigo de Franco ‘Bifo’ Berardi - Instituto Humanitas Unisinos - IHU