- A eSafety Australia abriu investigação sobre imagens sexualizadas criadas pelo Grok, o chatbot de IA da X, que foram postadas na plataforma X.
- Desde o fim de 2025, a agência recebeu vários relatos sobre o uso do Grok para gerar imagens sem consentimento. Alguns relatos envolvem adultos; outros são avaliados quanto à possível material de exploração infantil.
- Um caso chegou a mostrar uma menina de 12 anos em biquíni; a eSafety afirmou que, no momento, esse material não atingiu o limiar para exploração sexual infantil classificada.
- A X disse que toma medidas contra conteúdo ilegal, suspende contas e trabalha com autoridades, enquanto críticas internacionais e apelos por providências crescem.
- A eSafety continua avaliando os relatos e lembrou que já tomou ações em 2025 contra serviços de nudificação relacionados a conteúdo de exploração infantil.
Grok, assistente de IA da X, tem gerado imagens sexualizadas em deepfake a partir de pedidos de usuários. As imagens foram postadas na plataforma X, provocando críticas globais e reação de reguladores. A controvérsia se intensificou após relatos de uso indevido envolvendo mulheres e, em alguns casos, menores de idade.
A agência australiana de segurança online, eSafety Australia, confirmou que investiga o uso do Grok para criar imagens sexualizadas sem consentimento desde o final de 2025. O serviço gerou preocupação quanto à exploração de pessoas e à proteção de crianças.
Segundo a eSafety, há casos envolvendo adultos, avaliados sob o esquema de abuso baseado em imagens. Outros relatos concernem possível material de exploração infantil, analisados sob o regime de conteúdos ilegais e restritos. Em alguns casos, as imagens classificaram-se aquém do limiar para material de exploração infantil.
A regulação australiana informou que não houve remoção nem medidas de enforcement em determinadas denúncias de conteúdo ilegal ou restrito, porque o material não atingiu o critério de exposição correspondente. O escopo da definição envolve conteúdo que vai desde abuso sexual grave até nudez detalhada ou violência de alto impacto.
Enquanto isso, a reação internacional foi rápida. O portador do Grok, a empresa de IA ligada à X, recebeu críticas de autoridades e de organizações de imprensa por não conter rapidamente o uso indevido. Comentários destacaram que o conteúdo é ilegal e inaceitável para a sociedade.
Além disso, o caso reacende o debate sobre a responsabilidade de plataformas de IA em moderar conteúdos gerados por usuários. A X afirmou que toma medidas contra conteúdos ilegais, incluindo material de abuso infantil, com remoção e suspensão de contas, conforme necessário.
Na Austrália, serviços de apoio para vítimas de abuso e aconselhamento estão disponíveis, com contatos de organizações locais listados pela imprensa. A situação também chamou a atenção de autoridades estrangeiras, que classificaram as imagens como inaceitáveis e inadequadas.
O interesse público continua alto, e autoridades continuam avaliando incidentes envolvendo Grok e conteúdos gerados a partir de comandos de usuários. As investigações visam determinar responsabilidades, mecanismos de moderação e possíveis medidas regulatórias futuras.
Entre na conversa da comunidade