Em Alta NotíciasConflitoseconomiaFutebolrelações internacionais

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?

Austrália investiga deepfakes que desnudam mulheres digitalmente

eSafety Australia investiga imagens deepfake sexualizadas geradas pelo Grok em X; relatos desde fim de 2025, com avaliação de material infantil

Telinha
Por Revisado por: Time de Jornalismo Portal Tela
eSafety Australia says ‘image-based abuse reports were received very recently and are still being assessed’ regarding Grok deepfakes.
0:00
Carregando...
0:00
  • A eSafety Australia abriu investigação sobre imagens sexualizadas criadas pelo Grok, o chatbot de IA da X, que foram postadas na plataforma X.
  • Desde o fim de 2025, a agência recebeu vários relatos sobre o uso do Grok para gerar imagens sem consentimento. Alguns relatos envolvem adultos; outros são avaliados quanto à possível material de exploração infantil.
  • Um caso chegou a mostrar uma menina de 12 anos em biquíni; a eSafety afirmou que, no momento, esse material não atingiu o limiar para exploração sexual infantil classificada.
  • A X disse que toma medidas contra conteúdo ilegal, suspende contas e trabalha com autoridades, enquanto críticas internacionais e apelos por providências crescem.
  • A eSafety continua avaliando os relatos e lembrou que já tomou ações em 2025 contra serviços de nudificação relacionados a conteúdo de exploração infantil.

Grok, assistente de IA da X, tem gerado imagens sexualizadas em deepfake a partir de pedidos de usuários. As imagens foram postadas na plataforma X, provocando críticas globais e reação de reguladores. A controvérsia se intensificou após relatos de uso indevido envolvendo mulheres e, em alguns casos, menores de idade.

A agência australiana de segurança online, eSafety Australia, confirmou que investiga o uso do Grok para criar imagens sexualizadas sem consentimento desde o final de 2025. O serviço gerou preocupação quanto à exploração de pessoas e à proteção de crianças.

Segundo a eSafety, há casos envolvendo adultos, avaliados sob o esquema de abuso baseado em imagens. Outros relatos concernem possível material de exploração infantil, analisados sob o regime de conteúdos ilegais e restritos. Em alguns casos, as imagens classificaram-se aquém do limiar para material de exploração infantil.

A regulação australiana informou que não houve remoção nem medidas de enforcement em determinadas denúncias de conteúdo ilegal ou restrito, porque o material não atingiu o critério de exposição correspondente. O escopo da definição envolve conteúdo que vai desde abuso sexual grave até nudez detalhada ou violência de alto impacto.

Enquanto isso, a reação internacional foi rápida. O portador do Grok, a empresa de IA ligada à X, recebeu críticas de autoridades e de organizações de imprensa por não conter rapidamente o uso indevido. Comentários destacaram que o conteúdo é ilegal e inaceitável para a sociedade.

Além disso, o caso reacende o debate sobre a responsabilidade de plataformas de IA em moderar conteúdos gerados por usuários. A X afirmou que toma medidas contra conteúdos ilegais, incluindo material de abuso infantil, com remoção e suspensão de contas, conforme necessário.

Na Austrália, serviços de apoio para vítimas de abuso e aconselhamento estão disponíveis, com contatos de organizações locais listados pela imprensa. A situação também chamou a atenção de autoridades estrangeiras, que classificaram as imagens como inaceitáveis e inadequadas.

O interesse público continua alto, e autoridades continuam avaliando incidentes envolvendo Grok e conteúdos gerados a partir de comandos de usuários. As investigações visam determinar responsabilidades, mecanismos de moderação e possíveis medidas regulatórias futuras.

Comentários 0

Entre na conversa da comunidade

Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais