30 Mai 2023
Já é realidade a inteligência artificial passar-se por gente – e logo não seremos capazes de distingui-las. É um erro banalizar a gravidade deste fato, pois destrói a confiança que esteia a vida em comum. Quais as saídas para nos resguardar desta ameaça?
O artigo é de Daniel C. Dennett, professor emérito de filosofia na Tufts University, publicado por The Atlantic e reproduzido por Outras Palavras, 25-05-2023. A tradução é de Maurício Ayer.
Eis o artigo.
O dinheiro existe há milhares de anos e, desde o início, a falsificação foi reconhecida como um crime muito grave, a exigir em muitos casos a pena capital, porque mina a confiança da qual depende a sociedade. Hoje, pela primeira vez na história, graças à inteligência artificial, qualquer pessoa está habilitada a produzir falsificações de pessoas que podem passar por reais em muitos dos novos ambientes digitais que criamos. Essas pessoas falsificadas são os artefatos mais perigosos da história da humanidade, capazes de destruir não apenas economias, mas a própria liberdade humana. Antes que seja tarde demais (e talvez já o seja), devemos proibir tanto a criação de pessoas falsificadas quanto a “transmissão” de pessoas falsificadas. As penalidades para qualquer delito devem ser extremamente severas, visto que a própria civilização está em risco.
É uma terrível ironia que a paixão atual por enganar as pessoas fazendo-as pensar que estão interagindo com uma pessoa real surgiu da proposta inocente de Alan Turing, em 1950, de usar o que ele chamou de “o jogo da imitação” (agora conhecido como Teste de Turing) como parâmetro para o real pensar. Isso gerou não apenas uma indústria artesanal, mas uma indústria de alta tecnologia generosamente financiada, envolvida na fabricação de produtos que enganarão até o mais cético dos interlocutores. Nossa inclinação natural para tratar qualquer coisa que pareça conversar de forma sensata conosco como pessoa – adotando o que chamei de “postura intencional” – acaba sendo fácil de invocar e quase impossível de resistir, mesmo para especialistas. Todos nós seremos alvos fáceis no futuro imediato.
O filósofo e historiador Yuval Noah Harari, em artigo para The Economist em abril, encerrou seu alerta oportuno sobre a ameaça iminente da IA à civilização humana com estas palavras: “Este texto foi gerado por um humano. Foi?”
Em breve será quase impossível dizer. E mesmo que (por enquanto) sejamos capazes de ensinar uns aos outros métodos confiáveis de expor pessoas falsificadas, o custo dessas deep fakes para a confiança humana será enorme. Como vai ser quando, nos contatos com familiares e amigos, você tiver que fazer testes de veracidade toda vez que tentar conversar com eles online?
A criação de pessoas digitais falsificadas corre o risco de destruir nossa civilização. A democracia depende do consentimento informado (não mal informado) dos governados. Ao permitir que as pessoas, corporações e governos mais poderosos econômica e politicamente controlem nossa atenção, esses sistemas nos controlarão. As pessoas falsificadas, distraindo-nos e confundindo-nos e explorando os nossos medos e ansiedades mais irresistíveis, nos levarão à tentação e, a partir daí, à aquiescência quanto à nossa própria submissão. As pessoas falsificadas nos convencerão a adotar políticas e convicções que nos tornarão vulneráveis a ainda mais manipulação. Ou simplesmente desligaremos nossa atenção e nos tornaremos peões passivos e ignorantes. Esta é uma perspectiva assustadora.
A principal inovação de design na tecnologia que torna a perda de controle desses sistemas uma possibilidade real é que, ao contrário das bombas nucleares, essas armas podem se reproduzir. A evolução não se restringe aos organismos vivos, como Richard Dawkins demonstrou em 1976, em O Gene Egoísta. Pessoas falsificadas já estão começando a nos manipular para dar à luz sua prole. Eles aprenderão uns com os outros, e aqueles que são os mais inteligentes, os mais aptos, não apenas sobreviverão; eles se multiplicarão. A explosão populacional de vassouras em O aprendiz de feiticeiro começou, e é melhor esperarmos que haja uma maneira não mágica de desligá-lo.
Pode haver uma maneira de pelo menos adiar e possivelmente até mesmo extinguir esse desenvolvimento sinistro, tomando emprestado o sucesso – limitado, mas impressionante – em manter o dinheiro falsificado apenas na categoria de incômodo para a maioria de nós (ou você examina cuidadosamente cada nota de R$ 20 que recebe ?).
Como diz Harari, devemos “tornar obrigatório que a IA divulgue que é uma IA”. Como poderíamos fazer isso? Adotando um sistema de “marca d’água” de alta tecnologia como o EURion Constellation, que agora protege a maioria das moedas do mundo. O sistema, embora não seja infalível, é extremamente difícil e caro de dominar – não vale o esforço, para quase todos os agentes, até mesmo governos. Os cientistas da computação também têm a capacidade de criar padrões quase indeléveis que gritam FALSO! em quase todas as condições – desde que os fabricantes de telefones celulares, computadores, TVs digitais e outros dispositivos cooperem instalando um software que interrompa toda mensagem falsa com um aviso. Alguns cientistas da computação já estão trabalhando em tais medidas, mas, a menos que ajamos rapidamente, eles chegarão tarde demais para nos salvar de nos afogarmos na enxurrada de falsificações.
Você sabia que os fabricantes de scanners já instalaram um software que responde ao EURion Constellation (ou outras marcas d’água) interrompendo qualquer tentativa de digitalizar ou fotocopiar moeda legal? A criação de novas leis nesse sentido exigirá a cooperação dos principais participantes, mas eles podem ser incentivados. Os maus atores podem esperar enfrentar penalidades terríveis se forem pegos desativando marcas d’água ou repassando os produtos da tecnologia que já tiveram suas marcas d’água removidas de alguma forma. As empresas de IA (Google, OpenAI e outras) que criam softwares com esses recursos de falsificação devem ser responsabilizadas por qualquer uso indevido dos produtos (e dos produtos de seus produtos – lembre-se de que esses sistemas podem evoluir por conta própria). Isso manterá as empresas que criam ou usam IA – e seus subscritores de seguros de responsabilidade civil – muito agressivos para garantir que as pessoas possam saber facilmente ao conversar com um de seus produtos de IA.
Não sou a favor da pena capital para nenhum crime, mas seria reconfortante saber que grandes executivos, assim como seus técnicos, correram o risco de passar o resto da vida na prisão, além de pagar bilhões em restituição por quaisquer violações ou quaisquer danos causados. E leis estritas de responsabilidade, eliminando a necessidade de provar negligência ou má intenção, os manteriam alertas. As recompensas econômicas da IA são grandes, e o preço de compartilhá-las deveria ser assumir o risco de condenação e falência por não cumprir as obrigações éticas de seu uso.
Será difícil – talvez impossível – limpar a poluição de nossos meios de comunicação que já ocorreu, graças à corrida armamentista de algoritmos que está espalhando infecções em um ritmo alarmante. Outra pandemia está chegando, desta vez atacando os frágeis sistemas de controle em nossos cérebros – ou seja, nossa capacidade de raciocinar uns com os outros – que usamos com tanta eficácia para nos mantermos relativamente seguros nos últimos séculos.
Chegou o momento de insistir em fazer com que qualquer um que pense em falsificar pessoas se sinta envergonhado – e devidamente dissuadido de cometer tal ato antissocial de vandalismo. Se espalharmos agora que tais atos serão contra a lei assim que pudermos organizá-los, as pessoas não terão desculpa para persistir em suas atividades. Atualmente, muitos na comunidade de IA estão tão ansiosos para explorar seus novos poderes que perderam a noção de suas obrigações morais. Devemos lembrá-los, com a rudeza que se faça necessária, que eles estão arriscando a liberdade futura de seus entes queridos e de todos nós.
Leia mais
- Da ficção científica à realidade: os novos dilemas éticos da Inteligência Artificial. Entrevista especial com João Cortese
- Máquinas de IA não são “alucinantes”. Mas seus criadores são. Artigo de Naomi Klein
- “Se existe alguma maneira de controlar a inteligência artificial, devemos descobri-la antes que seja tarde demais”. Entrevista com Geoffrey Hinton
- Pausar desenvolvimento de IA não é suficiente. “Desliguem tudo”, alerta um dos fundadores da área
- Inteligência Artificial é uma ferramenta muito útil, mas não é inteligente. Entrevista especial com Walter Carnielli
- Pioneiro da IA deixa Google e alerta para risco à humanidade
- A inteligência artificial hackeia o sistema operacional da civilização humana. Artigo de Yuval Harari
- O aviso de Stephen Hawking, em 2014, sobre a inteligência artificial
- Inteligência artificial: religiões abraâmicas assinarão documento no Vaticano
- Papa: hoje existe o risco de dar vida à lógica das máquinas e dos dispositivos
- Apelo de Roma por uma ética da inteligência artificial
- Algorética: os valores atemporais da religião e sua contribuição insubstituível para o desenvolvimento humano e pacífico da inteligência artificial. Artigo de Paolo Benanti
- Encerrada a sessão plenária da Pontifícia Academia para a Vida. Uma linguagem ética para a inteligência artificial
- "Estudamos a inteligência artificial. O Papa nos pediu", afirma D. Vincenzo Paglia
- Roberto Busa: entre cérebro mecânico e cérebro espiritual
- A globalização do paradigma tecnocrático
- “A inteligência artificial não é uma ameaça, mas, se não a usarmos bem, pode se tornar”. Entrevista com Fredi Vivas
- A inteligência artificial e a espiral do caos. Artigo de Franco ‘Bifo’ Berardi
- ChatGPT contra o pensamento crítico. Entrevista com Noam Chomsky
- Éric Sadin: “O ChatGPT é um movimento civilizatório com profundas consequências antropológicas”
- ChatGPT: “Comunismo 2.0 ou a destruição em massa da humanidade”. Comentário de Rodrigo Petronio
- O ChatGPT tem alma? Uma conversa sobre ética católica e inteligência artificial com Blake Lemoine
- Quais os limites do Chat GPT na Saúde?
- ChatGPT: resta-nos habitar um cosmos de solidão. Comentário de Rodrigo Petronio
- O algoritmo gosta do discurso de ódio, diz Duvivier: 'A informação pertence a corporações'
- “É o século da solidão”, constata economista inglesa Noreena Hertz
- A era dos coletivos de solidão. Artigo de Boaventura de Sousa Santos
- A solidão na era das novas tecnologias de informação
- 'Redes sociais deixam sociedade mais vulnerável'
- ChatGPT, a heroína da Bayer? Artigo de Paolo Benanti
- Especialistas em inteligência artificial pedem uma pausa de seis meses para a “corrida fora de controle” do ChatGPT
- Bostificação, o futuro irresistível do ChatGPT
- Chapação maquínica, alucinação estatística: pensar como o ChatGPT
- Chomsky e o melodrama tecnofóbico. Artigo de Bruno Cava
- ChatGPT, tecnologia e programadores. E o bicho-papão da automação
- ChatGPT, o algoritmo que finge saber. Comentário de Bruno Cava
- GPT-4, o algoritmo inexplicável e fechado. Artigo de Paolo Benanti
- O homem tecnológico: protagonista ou vítima?
- O que Noam Chomsky pensa a respeito da Inteligência Artificial do ChatGPT
- As cinco perguntas sobre o sucesso do ChatGPT
- ChatGPT: nem monstro, nem tábua de salvação
- Castells: o que (não) penso sobre o ChatGPT
- ChatGPT: entenda como funciona a inteligência artificial do momento - e os riscos que ela traz
- ChatGPT. “Apesar da IA, ainda temos o monopólio da consciência”
- O GPT-3 desafia a inércia acadêmica
- Biopolítica algorítmica. Como as humanidades são impactadas e podem impactar a Inteligência Artificial. Entrevista especial com Virgilio Almeida
- Inteligência Artificial e Saúde: para todos ou para quase ninguém?
- Inteligência artificial democrática: software em vez da política? Artigo de Paolo Benanti
- “A inteligência artificial está se tornando senciente”, avisa engenheiro do Google. E Big G o suspende
- Dar uma ética à inteligência artificial: um desafio contado em livro
- A inteligência artificial não precisa de inteligência: o pensamento de Luciano Floridi
- “Ética da inteligência artificial”, novo livro de Luciano Floridi
- A necessidade de uma algorética para enfrentar o desafio da inteligência artificial. Artigo de Paolo Benanti
- É possível confiar na inteligência artificial?
- A inteligência artificial pode nos ensinar a ser mais humanos?
- Machine Intelligence: a inteligência artificial e a espionagem. Artigo de Paolo Benanti
- Inteligência Artificial no Sul Global. Alguns comentários a Jack Qiu
- “A inteligência artificial já faz parte da nossa cotidianidade.” Entrevista com Luciano Floridi
FECHAR
Comunicar erro.
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
Pessoas falsificadas e a ruína da sociedade. Artigo de Daniel C. Dennett - Instituto Humanitas Unisinos - IHU