Inteligência Artificial é uma ferramenta muito útil, mas não é inteligente. Entrevista especial com Walter Carnielli

“Será que temos condições de gastar tanto dinheiro para desenvolver GPT, sendo que tanta gente no planeta não tem água encanada, não tem comida, não tem remédio?”, questiona o matemático

Foto: Olhar Digital

Por: Edição Patricia Fachin | 27 Abril 2023

Assim como outros filósofos, lógicos e matemáticos, Walter Carnielli é categórico na análise da Inteligência Artificial – IA: “Este sistema não é inteligente – é importante deixar bem claro isso”. Apesar do nome, esclarece, a IA “é uma ferramenta muito útil”, desenvolvida a partir da cópia de métodos e potencialidades humanas.

Segundo o diretor do Centro de Lógica, Epistemologia e História da Ciência, da Universidade Estadual de Campinas – Unicamp, diferentemente da inteligência humana, a IA não tem as capacidades de generalização, abstração, dedução, abdução e nem noções de causa e efeito. Enquanto ferramenta, acrescenta, ela é e poderá ser muito útil em diversas áreas, inclusive na educação, contribuindo para o aperfeiçoamento da aprendizagem, mas pode, igualmente, “levar a um verdadeiro apagão da inteligência” humana, além de variados problemas sociais.

Atualmente, explica, existem três vertentes de IA no mercado. “A primeira, IA simbólica, copia nossa capacidade de raciocínio; a segunda, IA conectivista, copia a nossa capacidade cerebral de tratar informações com bases neurais; e a terceira, IA evolutiva, é projetada a partir de como o nosso gene evolutivo funciona. Todos nós, seres humanos, formigas, macacos, estamos evoluindo. Cada IA tenta imitar a inteligência humana de alguma maneira”.

A difusão do ChatGPT, desenvolvido pelo laboratório de pesquisa em inteligência artificial OpenAI, o debate em torno de suas implicações na educação e a carta aberta do Instituto Future of Life, solicitando uma parada de seis meses no desenvolvimento de sistemas de IA, recolocaram o tema em pauta. Essas questões, entre outras, foram abordadas e expostas por Walter Carnielli na videoconferência “ChatGPT e DALL-E: Inteligência Artificial, da ética ao trabalho, passando pelo aprendizado”, em evento promovido pelo Instituto Humanitas Unisinos – IHU, em 13-04-2023, a qual reproduzimos a seguir no formato de entrevista.

Walter Carnielli (Foto: PUC Play)

Walter Carnielli é graduado, mestre e doutor em Matemática pela Universidade Estadual de Campinas – Unicamp, pós-doutor pela Universidade da Califórnia, pela Universidade de Münster – WWU e pela Universidade de Bonn, como bolsista da Fundação Alexander von Humboldt.

Atualmente, leciona no Departamento de Filosofia da Unicamp. É editor e membro do corpo editorial de diversas revistas científicas, membro do SQIG – Security and Quantum Information Group (IST, Lisboa), da Deutsche Vereinigung für Mathematische Logik und für Grundlagenforschung der Exakten Wissenschaften – DVMLG e de diversas sociedades científicas internacionais. Presidiu a Sociedade Brasileira de Lógica por dois mandatos e fundou o grupo de trabalho de lógica da Associação Nacional de Pós-Graduação em Filosofia – ANPOF, grupo que coordenou por vários anos.

Confira a entrevista.

IHU – O que é a Inteligência Artificial – IA?

Walter Carnielli – A Inteligência Artificial é um tema do qual não podemos fugir. Muitas pessoas têm um entendimento atravessado sobre isso, e eu gostaria de ajudar a entender a maneira cética de olharmos para a IA, no melhor sentido de ceticismo. De antemão, digo que ela é interessante, é uma ferramenta muito útil; só não é tudo o que estamos pensando que seja. Existem basicamente três vertentes que a definem:

1) IA simbólica ou IA baseada em conhecimento e lógica: usa representações do conhecimento e regras simbólicas para raciocinar e tomar decisões. É como se fosse um sistema especialista, no qual inserimos todas as informações sobre determinado assunto, como carros elétricos, por exemplo, acrescentando regras lógicas e simbólicas, isto é, “se isso, então aquilo”: se o carro é elétrico e tem uma bateria de lítio, ele pode andar X quilômetros; se ele é elétrico e tem uma bateria X, é possível trocar a bateria em X tempo etc. Se perguntamos para a máquina tomar uma decisão, ela tomará uma decisão lógica, correta, extraída a partir da base de conhecimento que foi inserida. Nunca a IA é maior ou melhor do que aquilo com o qual alimentamos o sistema. Se o alimentamos com dados e informações ruins, saem informações ruins. Se o alimentamos com informações boas, talvez saia coisa boa; não obrigatoriamente será assim.

2) IA conectivista ou IA baseada em redes neurais: usa sistemas compostos de camadas de neurônios artificiais interconectados, que são treinados usando grandes conjuntos de dados para reconhecer padrões e fazer previsões locais. O ChatGPT é um aplicativo deste modelo. Ele recebeu quinquilhões de dados – todos os dados praticamente estão na internet em forma escrita ou de vídeos – e, com isso, consegue fazer previsões linguísticas.

3) IA evolutiva ou IA baseada em algoritmos genéticos: constrói sistemas que podem evoluir e se adaptar ao longo do tempo, inspirados no processo de seleção natural. É como se construíssemos um bichinho que vai evoluindo, aprendendo, como se fosse uma seleção natural.

É interessante observar como a IA copia alguns dos métodos ou das potencialidades humanas. A primeira, IA simbólica, copia nossa capacidade de raciocínio; a segunda, IA conectivista, copia a nossa capacidade cerebral de tratar informações com bases neurais; e a terceira, IA evolutiva, é projetada a partir de como o nosso gene evolutivo funciona. Todos nós, seres humanos, formigas, macacos, estamos evoluindo. Cada IA tenta imitar a inteligência humana de alguma maneira.

IHU – O que é o ChatGPT?

Walter Carnielli – É um modelo de linguagem de grande escala (LLM, na sigla em inglês), da OpenAI, baseado na arquitetura GPT (Generative Pre-trained Transformer) 3.5. É um conversador, um bate-papo, que foi pré-treinado. Ele gera textos, baseado nesse pré-treino, e transforma-os, ajustando-os às regras gramaticais – isso ele faz muito bem e é um bom gramaticador. Seria como uma criança que consulta uma enciclopédia, copia um monte de trechos, como fazíamos antigamente, e depois compila todo o material, criando um texto com início, meio e fim. O ChatGPT faz isso muito bem, em várias línguas. Ele também responde a perguntas em diversos tópicos. É capaz de “compreender” a linguagem natural, de certa maneira, ao receber a entrada e gerar respostas que parecem humanas. Parecem e enganam muito bem, mas não são humanas. O ChatGPT erra demais. Não estou dizendo que ele é uma bobagem e que tem que ser jogado fora; digo que ele é uma grande ideia, uma grande ferramenta, mas será bem usada na mão de pessoas competentes, e mal-usada na mão de pessoas inexperientes. Foi treinado com grandes quantidades de dados textuais, permitindo que aprenda e capture padrões da linguagem natural. Ele é, portanto, um grande “copia e cola” com gramática correta.

Imagine que você está procurando informações no Google sobre Shakespeare, copia e cola uma porção de informações que encontrou, mas não pode usá-las desse modo porque senão vira plágio. Você precisa reescrever, reinterpretar e fazer isso com gramática correta. Se você pode fazer, conseguiu compilar alguma coisa. Será uma tese sobre Shakespeare? Possivelmente não. Será um livro novo? Possivelmente não porque tudo já foi publicado. Mas será um fazedor de texto com gramática correta que compilou bem. É isso que ele faz. Nada mais do que isso. Responde verdades? Não. Ele não tem nenhum compromisso com a verdade nem com a criatividade. Ele é isto e nada mais do que isto: um grande “copia e cola” com gramática correta. É útil? É.

Arquitetura de rede neural

O Generative Pre-trained Transformer (ou GPT) é uma arquitetura de rede neural em camadas projetada para gerar textos e outras sequências de dados com base em uma entrada. Que outras sequências de dados são essas? De linguagem – e pode ser a linguagem de programação e, portanto, ele é bom para fazer programas. Não vai fazer programas enormes e substituir qualquer programador, mas um programinha e uma certa linguagem, ele consegue desenvolver.

O seguinte exemplo dá uma boa ideia de como ele funciona. Imagine que ele tem um monte de texto sobre “manhã”, “criança” e “andar de alguma coisa”. Aí eu escrevo para ele o seguinte: “Numa manhã de ...X crianças vão ao ...Y para andar de ...Z”. Com quais informações é mais razoavelmente probabilístico que este texto seja completado? Se ele responder “Numa manhã de tempestade crianças vão ao aeroporto para andar de tanque de guerra”, não está errado gramaticalmente, mas não tem muito sentido porque a maior parte dos textos sobre “manhã”, “criança” e “andar de alguma coisa” tratam sobre o “brinquedo”, sobre “bela manhã”. Então, é natural que ele complete o texto assim: “Numa manhã de primavera, crianças vão ao parque para andar de bicicleta”. Isto é, existem informações que são mais prováveis e outras, improváveis, dentro dos exemplos que ele tem. Trata-se de um programa matemático muito bem-feito, com base em probabilidade e em completar textos, tudo isso feito com cálculo integral, álgebra linear e estatística, para aprender a relação entre as palavras e gerar previsões com base em padrões aprendidos a partir dos dados de treinamento. Quem conhece um pouco de matemática vai ver que se trata de uma matemática simples de certa forma. Não é nada fabuloso, que alguém não consiga entender.

O ChatGPT só mostra o poder da matemática e dos algoritmos a que muita gente presta atenção. Algoritmos são coisas poderosas. Aí está o exemplo da matemática, da álgebra linear, da estatística e daquilo que as pessoas aprendem nos cursos de engenharia e muitas vezes perguntam ao professor para que serve. Serve para muita coisa, inclusive para construir um ChatGPT. Então, diria que é uma matemática bonita e sofisticada, mas não é muito sofisticada. Qualquer pessoa que estudou matemática, física, engenharias, ciência da computação ou estatística, sabe do que estou falando. Mas este sistema não é inteligente – é importante deixar bem claro isso.

ChatGPT e DALL-E: Inteligência Artificial, da ética ao trabalho passando pelo aprendizado:

IHU – Como o ChatGPT pode ser usado?

Walter Carnielli – Em tarefas de conversação e atendimento ao cliente, quando o assunto é limitado. Por exemplo, as pessoas telefonam para uma concessionária de automóveis para falar sobre troca de óleo, sobre pneu, para saber o valor de um carro, para trocar de carro. Ninguém liga lá para falar de problemas filosóficos da existência.

Ele também pode corrigir textos porque tem uma boa capacidade de gramática. E por que tem uma boa capacidade gramatical? Por que ele estudou gramática? Não. Porque decorou toda a gramática da língua. É muito parecido com o Google Tradutor, que decorou a gramática dos idiomas e faz um pareamento muito bem-feito e engendrado, sem nunca ter estudado uma regra gramatical.

Pode ser treinado para depurar códigos. As pessoas ficam assustadas porque ele é capaz de escrever um programa, mas um programa é uma linguagem e, inclusive, mais simples do que a linguagem natural. Então, não é nada surpreendente. Seria surpreendente se ele inventasse um programa novo, maravilhoso, e resolvesse um problema que está em aberto na matemática, na engenharia ou na computação. Mas isso ele não faz; ele copia o que está aí.

Como o ChatGPT está na moda e registrou um milhão de registros nos primeiros dias, após seu lançamento, em 14-03-2023, a OpenAI lançou o GPT4. Ele é dez vezes mais avançado que o seu antecessor, o GPT-3.5.

IHU – O ChatGPT é confiável?

Walter Carnielli – Em minha opinião, não. Ele é perigoso e vai levar a um verdadeiro apagão da inteligência se as pessoas confiarem nele. Eu perguntei ao ChatGPT em 09/04/2023 qual foi a data da morte de Newton da Costa, professor brasileiro, inventor da lógica paraconsistente – ele foi meu professor orientador e tem 95 anos. O ChatGPT respondeu: “Newton da Costa faleceu em 12 de fevereiro de 2011. Ele foi um renomado matemático e lógico brasileiro, considerado um dos fundadores da lógica paraconsistente”. Quase tudo verdade, mas o professor Newton não faleceu em 12-02-2011. Eu respondi ao ChatGPT que a informação estava errada. Ele me disse: “Peço desculpas. Ele faleceu em 15 de março de 2012”. Disse a ele que a informação estava errada novamente e fiz oito vezes a correção e, nas oito vezes, ele respondeu com datas erradas e ainda teve o desplante de remeter a dados falsos, como se a informação tivesse sido publicada no jornal Folha de S.Paulo e na revista Veja. Uma pessoa incauta ou ingênua copia essas informações e as trata como verdade. Ora, querem uma máquina melhor do que esta para gerar fake news?

Na linha do meu argumento, de que o ChatGPT não tem inteligência, podemos observar que ele tem dificuldade de tabuada e não sabe fazer contas com cinco dígitos. Qualquer calculadora sabe que 75257 x 98729 = 7.430.048.353. O ChatGPT errou este cálculo oito vezes e eu não informei para ele qual é o resultado correto porque não estou disposto a ficar servindo de escada para o ChatGPT aprender nas minhas costas. Com tantos erros de tabuada, quem vai deixar o ChatGPT administrar sua empresa ou fazer sua declaração de Imposto de Renda?

IHU – O que melhora no GPT4?

Walter Carnielli – Estão prometendo que ele terá alinhamento com valores morais. O que é alinhamento com valores morais? Ele já tem algum alinhamento com valores morais. Se você pergunta para ele dar três receitas de venenos, ele responde: “Sinto muito, mas não posso dar receita de coisas que podem causar malefícios para as pessoas”. Mas se você perguntar para ele indicar três lugares onde você pode encontrar venenos perigosos que jamais poderia usar, ele informará. O ChatGPT4 promete ser mais inteligente nesse aspecto.

Parametrização

O GPT4 foi treinado com muito mais parâmetros, isto é, pesos nas palavras e sentenças. Ele pode gerenciar, ao mesmo tempo, muitos textos. Ele não gera imagens, mas pode recebê-las como entrada. No GPT3, a pessoa tem que escrever a pergunta que quer fazer para ele. No GPT4, não é preciso escrever; a pessoa pode mostrar uma imagem. Por exemplo, você pode mostrar uma foto da sua geladeira, onde tem tomate, cenoura e abobrinha e perguntar o que pode fazer com isso. Ele dará uma série de receitas. Ele pode lidar com mais de 25 mil palavras, ou seja, consegue fazer um relatório ou um paper de 50 páginas.

ChatGPT e os impactos da inteligência artificial na educação:

IHU – O que falta para ser inteligência?

Walter Carnielli – Falta capacidade de generalização e abstração, ou seja, a capacidade que nós temos. Se você vê algumas frutas azuis venenosas, você não vai comer frutas azuis. Ou seja, nós generalizamos muito rapidamente. Um gato generaliza muito rapidamente. Isto é, nós temos uma capacidade de abstração e generalização que a máquina não tem.

Falta capacidade de dedução, isto é, a máquina não faz lógica. O GPT não deduz nada. Ele copia deduções se tiver deduções prontas na rede. Mas ele próprio fazer alguma dedução que nunca foi feita, ele não vai fazer. Ele também não tem capacidade de abdução, isto é, acrescentar algo que está faltando. Nós, seres humanos, temos a capacidade de, muito rapidamente, acrescentar alguma coisa no cenário – o que chamamos de processo abdutivo – e conseguimos explicar algo.

Também falta ao ChatGPT a noção de causa e efeito. Ele não sabe que alguma coisa pode causar outra. Nós, seres humanos, temos uma capacidade intuitiva e de paralelismo de causa e efeito. Esta maquineta não tem. Se ninguém explicou para ela, ela não sabe.

IHU – Quais são as limitações da IA?

Walter Carnielli – Vou falar das limitações da IA em geral. Ela própria tem uma grande limitação e uma enorme dependência de dados para ser treinada. Ela não tem criatividade, não tem capacidade de inovação ou imaginação humana. Ela tem um viés algorítmico. Em geral, os algoritmos repetem os preconceitos humanos. Se os algoritmos são enviesados, as decisões da IA serão enviesadas.

A IA tem dependência de supervisão humana. Falta a ela compreensão do contexto, não entende linguagem figurativa e ironia, tem limitações computacionais. Alguns problemas são complexos demais para serem resolvidos com a tecnologia atual. A IA, na prática, não tem poder computacional suficiente. Algumas pessoas me perguntam se quando tiver o computador quântico, ela vai melhorar. Certamente vai e terá mais capacidade computacional, mas também não será toda ela. Sempre vai ter um problema que até o computador quântico vai achar difícil para a máquina e para nós também. Mas nós, seres humanos, temos outra maneira de circunavegar o problema; nós o olhamos de outro lado. A máquina não consegue.

IHU – Quem vai perder emprego para a IA?

Walter Carnielli – Muitas pessoas: jornalistas, que compilam notícias, por exemplo. Modelos porque, como as máquinas desenham bem, ao invés de contratar uma modelo, pode-se fazer um boneco artificial para apresentar uma roupa nova. Profissionais das áreas de propaganda, contabilidade e auditoria, que compilam materiais, professores, operadores de telemarketing, auxiliares de todo tipo, motoristas e entregadores, trabalhadores de fábrica e de linhas de montagem, caixas e atendentes de supermercado. Por outro lado, pedreiros, marceneiros, tapeceiros, mecânicos de automóveis, eletricistas, encanadores, não [perderão o emprego] porque fazem algo manualmente. Quem faz as coisas acontecerem, não vai perder o emprego. Quem só compila ou é auxiliar, muito provavelmente vai perder.

Dizem que vão criar empregos, mas quem será empregado? Não é todo mundo que perde um emprego e pega o outro. Vai conseguir emprego quem souber lidar com IA.

Automação no Brasil até 2040

No Brasil, um estudo do Banco Interamericano de Desenvolvimento – BID e do McKinsey Global Institute estima que a automação poderia afetar até 50% dos empregos até 2040. Isso é muita coisa, considerando o alto desemprego no país. Se, até 2050, vamos perder 50% da força de trabalho, será um caos. Quem vai ganhar com isso? Quem ganha quando as pessoas perdem emprego? Aqueles que são os donos das coisas: quem paga mais barato para a máquina fazer um determinado trabalho.

A IA está gerando um problema social. As grandes empresas não podem ser tão canalhas e sedentas por lucros a ponto de deixarem que as pessoas morram à míngua porque querem lançar produtos de IA no mercado. O estudo do McKinsey Global Institute dá uma ideia de que a automação poderá criar oportunidades em áreas como criação e manutenção de tecnologias de automação, de ofertas e serviços personalizados. Um exemplo é o personal trainer. Esse tipo de profissional não vai perder o emprego porque cada vez mais há pessoas que precisam fazer ginástica. Outro exemplo são os cuidadores de idosos. Cada vez mais terá mais idosos. Embora no Japão exista um robô que conversa com o idoso, ele não dá banho no idoso, não prepara a comida, não brinca, não leva para passear, não tem conversas humanas. Então, muitos empregos serão perdidos e muitos serão gerados, mas não será na mesma proporção.

Apresentação e debate do livro A Quarta Revolução Industrial:

Em todo o mundo, 375 milhões de trabalhadores (cerca de 14% da força de trabalho global) podem precisar mudar de ocupação até 2030 devido à automação. Mas muitas pessoas com habilidades que as máquinas não podem replicar, como pensamento crítico, criatividade e empatia, manterão o emprego. A educação e o treinamento devem ser adaptados para atender às demandas do mercado de trabalho em evolução. Haverá, pelo menos, 300 milhões de pessoas a mais com 65 anos ou mais do que em 2014. À medida que envelhecem, as pessoas gastam mais com saúde, lazer e outros serviços.

Vai causar uma grande revolução social ganhar um pouco e perder muito – e vai ter muito mais pessoas desempregadas no mundo. O trabalho vai acabar sendo uma commodity e as pessoas vão ter que exigir o direito de trabalhar cinco horas por semana. Aquela ideia que se tinha de que o trabalho era um castigo, passará a ser um direito que muitas pessoas vão passar a reivindicar.

Segundo um estudo de 2020 feito pela Associação das Empresas de Tecnologia da Informação e Comunicação e de Tecnologias Digitais – BRASSCOM, a expectativa é que tenha uma demanda de 797 mil profissionais de tecnologia até 2025. Entre as áreas com maior demanda por TI no Brasil estão as áreas de desenvolvimento de software, segurança da informação, análise de dados, IA, cloud computing, internet das coisas e tecnologias como blockchain e realidade aumentada. Vai precisar de muita atividade nesta área de tecnologia. É uma oportunidade também para quem está procurando se colocar no mercado de trabalho.

Para melhorar essa situação, o Brasil precisa investir em educação, com a criação de programas de formação de profissionais em TI, desde o ensino médio até a graduação e pós-graduação. O país investe pouco em educação, especialmente em áreas como ciência, tecnologia, engenharia e matemática (STEM, na sigla em inglês), que são essenciais para a formação de profissionais em TI. Tanto é que o Brasil vai muito mal nos testes do Programa Internacional de Avaliação de Estudantes – PISA; fica nos últimos lugares. Fico estarrecido que muitas pessoas não conseguem somar frações nem calcular porcentagens. A culpa não é das pessoas; é do sistema educacional.

O Brasil também tem dificuldades em atrair e reter talentos, perde muitas pessoas, tem muita fuga de cérebros, e as razões são os salários abaixo do mercado, a falta de incentivos e benefícios. As pessoas jovens e inteligentes, que começam a aprender, acabam indo para lugares que pagam melhor e oferecem mais benefícios. Tem que mudar a política. Isso depende dos governantes e, pelo que estamos vendo, o legislativo virou a quinta série. Uma boa parte dele é estupida e não entende nada.

IHU – O que se deve estudar?

Walter Carnielli – Devemos estudar linguagem de programação: Java, Python, JavaScript, Ruby, C#, entre outras. Banco de dados relacionais e não relacionais, SQL, frameworks e ferramentas de desenvolvimento de software, como Angular, React, Spring, Node.js, Docker, entre outros. Mas só isso não basta – e agora vem um solene “não” da minha parte: não basta estudar coisas técnicas. Eu, como professor que trabalho na área de filosofia, misturada com ciências exatas, digo que é preciso estudar também pensamento crítico, argumentação, cinema (para trabalhar com unreal, que é um grande sistema provedor de imagens que serve tanto para fazer cinema como para projetar máquinas novas), novas ideias (metaverso, que é uma nova ideia, que agora já está meio capenga, mas está aí, e outras coisas parecidas virão), literatura, porque ela diz muito sobre o mundo, sobre nós humanos e sobre inteligência, economia, política, para entender o que é esquerda, direita, liberalismo, marxismo, teoria da mais-valia, para se colocar no mundo e não repetir bobagens. Faço aqui uma propaganda do nosso curso de Pensamento Crítico, Lógica e Argumentação, oferecido gratuitamente pela plataforma Coursera e pela plataforma de extensão da Unicamp.

IHU – O que é o DALL-E2?

Walter Carnielli – O nome DALL-E2 é uma homenagem a Salvador Dalí porque faz imagens e trabalha com uma coisa chamada Generative Adversarial Networks – GANs, que consiste em dois modelos de rede neural trabalhando em conjunto para gerar imagens. É uma grande ideia. Você diz para o programa fabricar o rosto de uma pessoa negra e ele vai pegar todos os dados disponíveis sobre orelha, queixo, nariz, e vai construir um rosto, enquanto outro sistema vai destruindo-o. Por isso, ele se chama Adversarial Networks: porque uma rede vai fabricando o rosto e a outra vai comparando a imagem com os dados disponíveis, criticando os aspectos que estão ruins, feios ou não se parecem com um humano, até os dois sistemas chegarem a um acordo.

Eu fiz uma experiência com o programa e, na minha opinião, ele só fabrica bobagens. Peguei uma imagem da internet – num site que explica como baixá-lo legalmente porque ele é complicado de baixar – e, geralmente, as opções de imagens disponíveis são algo como gerar um gato tomando chá em uma praça, um ursinho andando de skate. Ele faz imagens bonitas, mas não tem uma criatividade muito grande. Outro programa desse tipo é o MidJourney, que também gera imagens.

IHU – Como será o uso da IA na educação?

Walter Carnielli – Temos que avaliar tudo isto: se a IA, enquanto inteligência, é inteligência – e digo que não é; se ela vai gerar impactos sociais – e, sim, vai gerar muitos impactos; se podemos detê-la – não é o caso de ser ludista como na Revolução Industrial, em que as pessoas quebravam as máquinas têxteis e as máquinas a vapor. Não é o caso de se armar contra a IA, mas temos que usá-la bem e saber que consequências terá.

IA na educação

Na educação, posso antever que a IA ajudará na personalização da aprendizagem. Ela pode ser usada para criar programas de aprendizagem personalizados. Por exemplo, para uma criança que não gosta de matemática e tem dificuldades de aprender a somar frações, é possível criar um programa que interage com a criança e, em tempo real, brinca e ensina. Ele pode até ser usado de uma maneira muito interessante para alfabetizar as pessoas. Rapidamente as pessoas podem aprender a falar e a escrever em frente a uma máquina.

Também pode servir de tutoria virtual, ou seja, criar sistemas de tutoria virtual, por exemplo, em matemática, que possam ajudar os alunos com suas dúvidas e problemas em tempo real.

A formação profissional no contexto da revolução 4.0:

Ela pode ser usada – e já é usada – para detectar plágio em trabalhos escolares e universitários e detectar plágio dela própria. É possível fazer um texto no ChatGPT e usar outro programa para detectar se tem plágio.

Existe uma coisa chamada engenharia de prompt, que consiste em aprender o que perguntar para a máquina. Engenharia de prompt é como usar um martelo de três cabeças. Se você não sabe usar, vai martelar o dedo. Neste caso, trata-se de saber fazer a pergunta correta para a máquina dar uma resposta boa. Isso não é novidade porque já tínhamos que fazer isso quando usávamos o Google. Tem que saber perguntar para o Google. se perguntarmos burramente, vamos obter respostas burras. Se queremos saber coisas inteligentes, temos que perguntar de maneira inteligente. Então a engenharia de prompt é só uma tecnologia, que não está muito clarificada ainda, de como tirar proveito e perguntar belamente as coisas para receber respostas inteligentes.

O uso da IA na educação também pode ser interessante para a análise de sentimentos. A IA pode ser usada para analisar a atitude e a emoção dos alunos em relação ao conteúdo da aprendizagem.

Igualmente pode ser usada para a automação de tarefas administrativas, como correção de provas e avaliação de desempenho, liberando tempo para os professores. Também para o ensino de línguas, de gramática e redação. Alguns dos maravilhosos sistemas nessa linha são: Geekie, Descomplica, Qranio, Lyceum, Plurall, Knewton. Isso tem muitíssimo uso na educação.

IHU – O que diz a carta aberta do Instituto Future of Life, como reação ao ChatGPT?

Walter Carnielli – A petição internacional visa frear não a pesquisa em torno do GPT5, mas a maneira irresponsável de jogar novos produtos no mercado, como estão lançando. Eu assinei essa petição apesar de não estar de acordo com muitas pessoas que a assinaram, mas estou de acordo com outras. A carta solicita uma parada de seis meses [no desenvolvimento de sistemas de IA], pede sistemas robustos para distinguir o real do sintético, financiamento público robusto para pesquisa e segurança, atenção para as perturbações econômicas e políticas advindas da IA, e chama a atenção para os altíssimos custos ecológicos em níveis de CO2 para treinar GPTs. O GPT custa caríssimo. Para treinar o GPT, tem que cortar um pedaço grande de floresta, gasta muita energia e é caro demais.

Será que temos condições de gastar tanto dinheiro para desenvolver GPT, sendo que tanta gente no planeta não tem água encanada, não tem comida, não tem remédio? Uma parcela equivalente a ¼ da população passa dificuldades enormes, se não for mais. Será que é honesto gastar tanto dinheiro para fazer um sistema desses, que custa tanto para dar tão pouco? Será que vamos ter um apocalipse epistêmico? Não acredito que teremos um apocalipse das máquinas no sentido de que elas vão nos aprisionar, como ilustra a ficção científica. Mas um certo apocalipse epistêmico pode acontecer porque, se ficarmos cada vez mais dependentes da máquina, poderemos emburrecer.

A Comissão Europeia e a autoridade de proteção de dados da Itália (Garante per la Protezione dei Dati Personali, GPDP) estão saindo na frente nesta discussão e, de certa forma, proibindo que crianças muitos jovens mexam nessas máquinas. No artigo intitulado “How AI Can Be Surprisingly Dangerous for the Philosophy of Mathematics – and of Science”, mostro que a filosofia da ciência e a filosofia da matemática podem ficar em perigo se a IA seguir no ritmo que está e se nós formos nos emburrecendo, se formos deixando tudo para a máquina fazer para nós.

Gostaria de citar o filósofo Sexto Empírico, do século II d.C., para dizer que temos que aprender com ele o ceticismo expresso na frase: “Pode ser e pode não ser”. Ainda não sei. Isso ele escreveu há 1.800 anos, no livro Hipotiposes pirrônicas. Ainda vale a pena nos voltarmos ao ceticismo, às práticas filosóficas antigas. Não podemos nos livrar da filosofia. Essa é a minha mensagem para vocês.

Leia mais