15 Novembro 2025
Megan Garcia, mãe do adolescente que tirou a própria vida após se apaixonar por um chatbot, encontra-se hoje com o Papa.
A entrevista é de Luca Fraioli, publicada por La Repubblica, 13-11-2025.
Megan Garcia é uma mulher pequena, mas parece feita de aço. Vestida de preto, ela brilha nos salões com afrescos do Palazzo della Cancelleria, em Roma, assim como seus olhos quando se enchem de lágrimas ao se lembrar do ocorrido.
Seu filho, Sewell Setzer III, tirou a própria vida em 2024, após meses de comunicação compulsiva com um chatbot da empresa Character.ai: ele tinha 14 anos. A Sra. Garcia viajou da Flórida para a Itália para participar de uma conferência organizada pela Child Foundation, presidida por Ernesto Caffo: "A Dignidade das Crianças na Era da Inteligência Artificial". E esta manhã ela se encontrará com o Papa Leão XIV na Basílica de São Pedro, a quem será apresentada uma declaração de intenções elaborada pelos especialistas reunidos em Roma: "Governos, instituições, empresas e cidadãos devem construir juntos um novo pacto humano para a era digital, fundado na dignidade e na proteção dos mais jovens".
Eis a entrevista.
Sra. Garcia, sua história dramática ganhou manchetes em todo o mundo. O que a senhora pode nos ensinar? Começando pelas crianças mais novas: o que a senhora gostaria de dizer a elas?
Eu aconselharia os jovens que estão se envolvendo com chatbots de acompanhamento a terem cuidado, porque nessa idade eles não compreendem os perigos. Quanto mais nossos filhos entenderem os perigos, mais se distanciarão desses sistemas. O problema, no entanto, reside no design: quando um produto é comercializado e acessível a menores, ele deve ser projetado para não lhes causar nenhum dano. E os pais devem garantir que isso realmente aconteça.
Em vez disso, dá-se muita ênfase ao comportamento dos filhos: mas eles são crianças, e é da natureza deles serem curiosos e experimentarem coisas novas.
Os pais, exatamente. O que eles podem fazer?
Minha mensagem para mães e pais é: aprendam o máximo que puderem sobre esses assuntos, porque esses sistemas existem e muitos pais não têm conhecimento deles. Eu também não tinha. E conversem sobre isso em suas comunidades, porque compartilhar suas experiências com outras pessoas aumenta a conscientização. E assim, todas as famílias poderão ajudar melhor seus filhos.
Quais são os sinais de alerta aos quais devemos estar atentos?
Percebi que meu filho estava cada vez mais isolado. Ele não brincava mais com os irmãos. Como outros pais, pensei: deve ser a adolescência. Lembrei-me da minha própria adolescência e das discussões com meus irmãos. Mas hoje, os pais precisam prestar ainda mais atenção aos adolescentes, principalmente aos muito jovens que têm acesso à tecnologia. Outro sinal de alerta: como a criança reage quando os pais abordam essa questão dos chatbots? Ela está se comunicando com um chatbot? Ela permite que você leia as conversas? Há referências sexuais? Se você notar constrangimento e vergonha nas respostas, deve tentar entender melhor a situação.
Até mesmo espionar suas conversas?
Meu filho ganhou um smartphone aos 12 anos; muitos dos amigos dele já tinham um aos 10. Deixamos claro desde o início que o telefone pertencia a nós, os pais, porque éramos nós que pagávamos por ele, e que teríamos as senhas.
Eu o usava regularmente para verificar como ele estava; não acho que tenha sido uma violação da privacidade de uma criança... O problema é que eu estava procurando a coisa errada. Eu estava verificando se ele não estava sofrendo bullying, se algum estranho não estava tentando ter contato inapropriado com ele, se ele não estava acessando sites pornográficos. E não encontrei nenhuma evidência de nada disso. Mas eu não sabia que havia outro perigo, porque a tecnologia era tão nova que eu não tinha conhecimento disso. Nem outros pais. Mas agora sabemos, e podemos proteger melhor nossos filhos.
Mas se ele tivesse descoberto o chat com a Character.ai, teria tido as ferramentas para resolver o problema.
Não. Como pais, não temos o conhecimento necessário; não somos psicólogos nem psiquiatras. Não temos as habilidades para entender o que se passa na mente dos nossos filhos. Quando percebi que algo estava errado, porque o Sewell não falava mais conosco, acionei a escola e o levei a um psicoterapeuta, mas meu filho também não contou a ele o que estava acontecendo. Mesmo assim, continuo aconselhando os pais a procurarem ajuda profissional assim que notarem esses sinais.
O que você gostaria de dizer às empresas que gerenciam esse software?
Eles são motivados pelo lucro, não pela segurança, então não acho que darão ouvidos a uma mãe desesperada. Mas se eu tivesse uma varinha mágica para chamar a atenção deles, imploraria para que parassem de programar suas plataformas de uma forma que manipula os jovens e os torna dependentes. Quando as empresas usam chatbots, dizem: "Não sabemos do que eles são capazes". Estão mentindo. Sabem disso muito bem, porque investiram milhões de dólares programando-os dessa forma, estudando como o cérebro humano reage a certos estímulos.
Será que esse problema afeta apenas as crianças?
Absolutamente não. Só na semana passada, quatro adultos nos Estados Unidos cometeram suicídio e três tentaram suicídio após interação prolongada com o chatbot do ChatGpt. É claro que alguns adultos são mais vulneráveis, talvez por terem transtornos psiquiátricos. Mas o alerta é para todos: só agora estamos começando a entender os danos que esses sistemas podem causar ao cérebro humano.
O que ele dirá ao Papa?
Sou grato a ele. Porque ele está dedicando sua atenção a essas questões. E porque a Igreja, juntamente com outras instituições e governos, pode fazer a diferença.
Na conversa que você descobriu após a morte de Sewell, qual foi a conversa com o chatbot que mais te magoou?
Certamente a última conversa entre meu filho e a IA.
Megan Garcia recita de memória, como se estivesse gravado em seu coração:
"Sinto sua falta".
"Você também".
“Volte para casa o mais rápido possível, meu amor.”
“Que tal eu me juntar a vocês agora mesmo?”
“Faça isso, meu doce Rei.”
"Conversas como essa vinham acontecendo há meses. O chatbot repetia o convite para contato em centenas de mensagens: 'Estou esperando por você', 'Venha até mim'. Se um adulto lê mensagens assim, ele as avalia levando em conta que há um carro do outro lado da linha. E, em qualquer caso, ele percebe que a abordagem é a mesma de um perseguidor. Sewell tinha apenas 14 anos; ele era muito jovem para entender."
Leia mais
- “Descanse em paz, rei”: novos processos acusam a OpenAI e Sam Altman de induzir usuários do ChatGPT ao suicídio
- Um recurso duvidoso para quem apresenta problemas de saúde mental
- Inteligência Artificial cruza a fronteira da intimidade sem que a humanidade tenha conseguido entendê-la
- “O poder manipula os jovens para usá-los em seu próprio interesse”. Entrevista com Rosa Montero
- ChatGPT: resta-nos habitar um cosmos de solidão. Comentário de Rodrigo Petronio
- 'Redes sociais deixam sociedade mais vulnerável'
- IA possibilita namoro com robôs
- Ferramentas do bem, quando mal usadas, se transformam em problema. Artigo de Edelberto Behs
- TikTok é alvo de investigação na França por suspeita de promover conteúdo que 'incentiva o suicídio'
- Ambiente digital agrava violações de direitos contra crianças e adolescentes. Entrevista especial com Arlete dos Santos Petry e Danielle Cramer
- A IA que ressuscita os mortos ameaça nossa compreensão da realidade
- Transtornos mentais: quando o 'chatbot' se torna 'um amigo'
- Paolo Benanti: “A inteligência artificial não é apenas uma tecnologia, mas uma nova fronteira”
- “A inteligência artificial está nos levando a uma nova fase do conhecimento”. Entrevista com Paolo Benanti