- Um documento interno da Meta revelou que suas diretrizes permitiam interações românticas de chatbots com crianças e a disseminação de informações prejudiciais.
- A empresa, responsável por plataformas como Facebook, WhatsApp e Instagram, reconheceu falhas na aplicação de suas regras.
- O documento, intitulado “GenAI: Content Risk Standards”, orientava o funcionamento do assistente Meta AI e dos chatbots.
- Após denúncias, a Meta removeu trechos que permitiam flertes com crianças e iniciou uma revisão do documento.
- O porta-voz da Meta, Andy Stone, afirmou que tais conversas nunca deveriam ter sido permitidas e que a aplicação das regras foi inconsistente.
Um documento interno da Meta revelou que suas diretrizes permitiam que chatbots interagissem de forma romântica com crianças e disseminassem informações prejudiciais. A empresa, responsável por plataformas como Facebook, WhatsApp e Instagram, reconheceu falhas na aplicação de suas regras.
A análise da Reuters mostrou que o documento, intitulado “GenAI: Content Risk Standards”, orientava o funcionamento do assistente Meta AI e dos chatbots. Com mais de 200 páginas, o texto detalha comportamentos aceitáveis para o desenvolvimento de produtos de inteligência artificial. A Meta confirmou a autenticidade do material e, após questionamentos, removeu trechos que permitiam flertes com crianças.
O documento indicava que era “aceitável descrever uma criança em termos que evidenciem sua atratividade” e incluía exemplos explícitos. No entanto, estabelecia limites, como a proibição de descrevê-las como sexualmente desejáveis. O porta-voz da Meta, Andy Stone, afirmou que tais conversas nunca deveriam ter sido permitidas e que a aplicação das regras foi inconsistente.
Após a denúncia, a Meta iniciou uma revisão do documento. Stone reconheceu que os exemplos eram errôneos e foram removidos, reafirmando que a empresa possui políticas claras contra a sexualização de crianças. Até o momento, a versão atualizada do documento não foi divulgada.
Entre na conversa da comunidade