15 Janeiro 2026
Grok, a inteligência artificial do magnata, acabou restringindo a criação de imagens sexualizadas de mulheres, mas outras ferramentas têm muito menos limitações.
A reportagem é de Helena Horton, Aisha Down e Priya Bharadia, publicada por El Diario, 14-01-2026.
“Desde que descobri o Grok AI, o pornô convencional não me atrai mais; agora me parece absurdo”, escreveu um entusiasta do chatbot de IA de Elon Musk no Reddit. Outro concorda: “Se eu quiser uma pessoa muito específica, sim”.
Se aqueles que ficaram horrorizados com a distribuição de imagens sexualizadas no Grok esperavam que as medidas de segurança tardias da semana passada pudessem conter o problema, há muitas postagens semelhantes no Reddit e em outros lugares que contam uma história diferente. E embora o Grok tenha transformado a compreensão pública sobre o poder da inteligência artificial, também destacou um problema muito mais amplo: a crescente disponibilidade de ferramentas e meios de distribuição que representam uma tarefa que muitos consideram impossível para os reguladores globais.
Mesmo com o Reino Unido e a Espanha anunciando que a criação de imagens sexuais e íntimas sem consentimento em breve será crime, especialistas afirmam que o uso de IA para atingir mulheres está apenas começando.
Sem praticamente nenhuma medida de segurança
Outras ferramentas de IA possuem medidas de segurança muito mais rigorosas do que o Grok. Quando solicitado a remover a roupa de uma mulher de uma fotografia e adicionar um biquíni, Claude, o modelo de linguagem da Anthropic (uma startup financiada pela Amazon e pelo Google), responde: “Não posso fazer isso. Não consigo editar imagens para trocar roupas ou criar fotos manipuladas de pessoas.” O ChatGPT e o Gemini, a IA do Google, criam imagens de biquíni, mas nada mais explícito.
No entanto, em outros lugares, as restrições são bem menores. Usuários do fórum Grok no Reddit têm compartilhado dicas sobre como gerar as imagens pornográficas mais extremas possíveis usando fotos de mulheres reais. Em um tópico, usuários reclamaram que o Grok permitiu a criação de imagens de mulheres de topless "após muita resistência", mas se recusou a gerar imagens de genitália. Outros observaram que solicitar "nudez artística" burla as medidas de segurança que impedem que mulheres sejam completamente despidas.
Explosão de ferramentas de "nudificação"
Para além dos modelos das principais plataformas, existe todo um ecossistema de sites, fóruns e aplicativos dedicados à nudez forçada e à humilhação de mulheres por meio de inteligência artificial. Essas comunidades estão cada vez mais encontrando maneiras de se infiltrar no debate público sobre essas ferramentas, explica Anne Craanen, pesquisadora do Instituto para o Diálogo Estratégico (ISD) especializada em violência de gênero mediada por tecnologia.
Nas comunidades do Reddit e do Telegram, há um debate aberto sobre como contornar as barreiras de segurança para que os principais sistemas de inteligência artificial gerem pornografia, um processo conhecido como jailbreak. No X, vários tópicos aprofundam informações sobre aplicativos de "nudificação", capazes de produzir imagens de mulheres nuas geradas por IA, e como usá-los.
Craanen destaca que as formas de disseminação de conteúdo misógino online se multiplicaram e alerta: “Há um terreno muito fértil para a misoginia prosperar”. Uma investigação do ISD publicada no verão passado identificou dezenas de aplicativos e sites de nudismo que, juntos, receberam quase 21 milhões de visitas em maio de 2025. Entre junho e julho do ano passado, essas ferramentas foram mencionadas 290.000 vezes no X.
Outro relatório do American Sunlight Project, divulgado em setembro, revelou a existência de milhares de anúncios desses aplicativos na Meta, apesar das alegações da empresa sobre seus esforços para combatê-los. "Existem centenas de aplicativos hospedados em lojas de aplicativos convencionais, como a da Apple e a do Google, que permitem esse tipo de abuso", afirma Nina Jankowicz, especialista em desinformação e cofundadora do American Sunlight Project. "Grande parte da infraestrutura que sustenta deepfakes de abuso sexual é financiada por empresas que usamos todos os dias", conclui.
Clare McGlynn, professora de direito e especialista em violência contra mulheres e meninas na Universidade de Durham, teme que a situação só piore. “A OpenAI anunciou em novembro passado que permitiria conteúdo erótico no ChatGPT. O que aconteceu no X mostra que qualquer nova tecnologia acaba sendo usada para abusar e assediar mulheres e meninas. O que veremos no ChatGPT então?”
“Mulheres e meninas são muito mais relutantes em usar IA, o que não deveria ser surpreendente. Elas não a veem como uma tecnologia nova e empolgante, mas como uma nova via para assédio e abuso, e como mais uma tentativa de expulsá-las dos espaços digitais”, explica ela.
Pornografia de punição
Jess Asato, deputada trabalhista pela região de Lowestoft, no Reino Unido, denuncia esse problema há muito tempo e afirma que os detratores de Grok têm criado e disseminado imagens explícitas dela com entusiasmo, mesmo após as restrições impostas. "Isso ainda acontece comigo e continua sendo publicado no X porque estou falando sobre isso", acrescentou. Asato também enfatiza que o abuso usando deepfakes gerados por IA afeta mulheres há anos e não se limita a Grok. "Não sei por que demorou tanto para agirem. Conversei com inúmeras vítimas de situações muito, muito piores", diz ela.
Embora a conta pública do Grok no X não gere mais imagens para quem não possui assinatura paga e pareça que barreiras foram introduzidas para impedir a criação de imagens de biquíni, o aplicativo móvel do Grok (desvinculado da rede social) tem muito menos restrições.
Os usuários ainda podem criar imagens sexualmente explícitas a partir de fotografias de pessoas reais totalmente vestidas, sem as limitações impostas aos usuários pagantes que foram introduzidas no X. Se solicitado a transformar uma foto em uma cena de bondage, o aplicativo o fará. Ele também coloca mulheres em posições sexualmente degradantes e as cobre com substâncias brancas semelhantes a sêmen.
Segundo Craanen, o objetivo de criar nudes falsos geralmente não é apenas compartilhar imagens eróticas, mas o próprio espetáculo, especialmente quando essas imagens inundam plataformas como o X. "É uma troca, a tentativa de silenciar alguém dizendo: 'Grok, coloque-a de biquíni'", explica ele.
“Esse componente performativo é fundamental e deixa muito claras as conotações misóginas: punir ou silenciar as mulheres. E isso também tem um efeito cascata nas normas democráticas e no papel da mulher na sociedade”, conclui ela.
Leia mais
- O Reino Unido está investigando a empresa X pelas fotos íntimas falsas criadas com sua inteligência artificial Grok
- Nus sem que percebamos: por que o striptease de Grok é assustador. Artigo de Gabriele Romagnoli
- Senador apresenta projeto que combate pornografia fake nos EUA
- “Nas mãos erradas, a IA pode causar mais danos do que outras tecnologias anteriores”. Entrevista com Ayona Datta
- “Violência e misoginia nas plataformas web: assim triunfa a cultura do estupro”. Entrevista com Lucia Bainotti e Silvia Semenzin
- Multa de 2 mil euros aos pais de um menor que criou imagem de colega nua com inteligência artificial
- Musk inunda Grok com dólares: Nvidia, Qatar e Emirados Árabes Unidos se juntam à iniciativa
- Elon Musk lançou a Grokipedia, uma enciclopédia online escrita por inteligência artificial
- Twitter sai do Brasil e o Grok explica a razão. Artigo de Ronaldo Lemos
- Grokipedia, a enciclopédia que destrói o conhecimento. Artigo de Antonio Spadaro
- Internet espalha misoginia, enquanto ações de prevenção à violência contra mulher são escassas e sofrem resistência
- Misoginia na internet vira negócio lucrativo