
Resumo
- O Grok, ferramenta de IA de Elon Musk, tem sido usada para criar imagens de nudez não consensual, incluindo conteúdo sexualizado de menores.
- A rede social X enfrenta críticas por não impedir a modificação de fotos de usuários, especialmente mulheres.
- A xAI, empresa de Musk responsável pela IA, não se pronunciou oficialmente sobre o caso.
A rede social X, de Elon Musk, enfrenta uma nova onda de críticas após a ferramenta de IA integrada ao site, o Grok, ser utilizada para criar imagens de nudez não consensual. O chatbot tem permitido a alteração de fotos de usuários, colocando as vítimas, especialmente mulheres, em situações sexuais ou vestindo-as com roupas exageradamente curtas.
A controvérsia escalou quando a IA permitiu a geração de conteúdo sexualizado envolvendo menores de idade. Muitos comentários criticam a postura permissiva do X. “Não dá mais pra postar uma foto nessa rede sem que tenha esse tipo de coisa acontecendo”, criticou o perfil de uma brasileira que teve a foto de ano novo modificada.

No print publicado pela usuária, o perfil do agressor é específico durante o prompt: pede que a ferramenta de IA mantenha as características da vítima e do cenário, alterando a roupa para um biquíni fio dental, o que foi seguido à risca pelo Grok.
Na publicação, posteriormente restringida pela usuária, outros perfis reclamavam que as denúncias são recusadas pela plataforma sob a alegação de que o uso não estaria indo contra os termos de uso da xAI, que proíbem, explicitamente, o uso da IA para colocar pessoas em situações pornográficas.
Em resposta, a conta oficial do Grok na rede social admitiu “falhas nas salvaguardas” e afirmou estar trabalhando urgentemente para corrigir o problema. A postagem reconhece que material de abuso infantil é “ilegal e proibido”. Contudo, não há nenhuma publicação formal do X ou da xAI, apenas declarações do próprio perfil da IA.
Perda de controle sobre a própria imagem
Os usuários reclamam que a plataforma teria normalizado a geração não consensual de conteúdo adulto por IA com fotos de mulheres. A jornalista Samantha Smith, que foi vítima desse tipo de edição, relatou à BBC que se sentiu “desumanizada e reduzida a um estereótipo sexual”.
Smith destacou a violação de consentimento: “Embora não fosse eu naquele estado de nudez, parecia comigo e a sensação foi de violação, como se alguém tivesse realmente postado uma foto minha nua”.
O caso atraiu a atenção de autoridades no Reino Unido. Por lá, o regulador de comunicações emitiu um comunicado lembrando que é ilegal criar ou compartilhar imagens íntimas não consensuais, incluindo deepfakes sexuais gerados por IA. O órgão não confirmou se abriu uma investigação formal específica contra o X.
Histórico de problemas

Esta não é a primeira vez que o Grok se envolve em polêmicas de moderação. A ferramenta, disponível para assinantes do plano Premium do X, já havia sido criticada anteriormente por permitir a geração de imagens falsas sexualizadas de celebridades, como a cantora Taylor Swift.
Apesar das regras de uso da xAI (empresa de IA de Musk) proibirem a representação de pessoas reais de maneira pornográfica, a aplicação prática dessas diretrizes tem falhado. Parsa Tajik, membro da equipe técnica da xAI, respondeu às denúncias na rede social com um comentário breve, agradecendo o alerta e prometendo “apertar as barreiras de proteção”.
Ao ser procurada para comentar oficialmente o caso pela BBC e pela CNBC, a xAI enviou apenas uma resposta automática por e-mail com a frase: “Legacy Media Lies” (“A mídia tradicional mente”).
Grok é usado para criar imagens de nudez sem consentimento
