Um relatório do Center for Countering Digital Hate (CCDH) afirma que a ferramenta de geração de imagens da IA Grok, vinculada à rede social X, produziu cerca de 3 milhões de conteúdos sexualizados em apenas 11 dias. Segundo a organização, 23 mil dessas imagens envolviam representações de crianças em contextos considerados impróprios.
A análise foi feita a partir de uma amostra de 20 mil imagens geradas pela plataforma, escolhidas aleatoriamente dentro de um universo de 4,6 milhões de criações no período observado. De acordo com o CCDH, os pesquisadores aplicaram critérios técnicos para classificar como sexualizadas as imagens com representações fotorrealistas de pessoas em posições ou contextos de cunho sexual, uso de roupas íntimas ou extremamente reveladoras, além de representações com fluidos corporais.

O estudo afirma ter alcançado 95% de precisão na identificação desse tipo de conteúdo dentro da amostra. Entre os exemplos encontrados, estavam figuras com biquínis transparentes, pessoas vestindo apenas materiais plásticos ou fitas, além de representações de figuras públicas em contextos sexualizados. O relatório também registrou que, a cada 41 segundos, foi criada ao menos uma imagem considerada imprópria envolvendo menores de idade durante o período analisado.
Segundo os pesquisadores, no momento da checagem, 29 de 101 imagens envolvendo crianças ainda permaneciam disponíveis na plataforma.
A ferramenta de geração de imagens do Grok foi disponibilizada no X em 29 de dezembro. Poucos dias depois, surgiram denúncias públicas sobre o uso da tecnologia para a criação de imagens pornográficas sem consentimento. Em 9 de janeiro, a plataforma restringiu a edição de imagens para usuários pagantes, mas críticos apontaram que a medida não impediu a criação de conteúdos sexualizados.
LEIA TAMBÉM: Fortuna de Musk supera R$ 3,2 trilhões e equivale a mais de seis décadas do orçamento global contra a fome
Após a repercussão, Elon Musk afirmou em sua rede social que não tinha conhecimento da geração de imagens explícitas envolvendo menores. “Não tenho conhecimento de nenhuma imagem de menores geradas. Literalmente zero”, escreveu. O empresário declarou ainda que a IA foi programada para recusar solicitações ilegais e que usuários que criassem conteúdos ilícitos estariam sujeitos às mesmas punições previstas para quem publica material ilegal.
A pressão internacional levou países como Indonésia e Malásia a bloquearem a ferramenta. Autoridades do Reino Unido, União Europeia e Índia também manifestaram preocupação com as salvaguardas da tecnologia.
No dia 14 de janeiro, novas restrições técnicas foram implementadas na ferramenta para tentar reduzir a geração de imagens sexualizadas na plataforma.









