17 de ago 2025
IA gera preocupações sobre a possibilidade de ensinar a criar armas biológicas
Estudo propõe filtrar dados prejudiciais antes do treinamento de IA, aumentando a segurança e mantendo o desempenho dos modelos

É possível impor limites de informações para as IAs (Foto: Andres Kudacki/NYT)
Ouvir a notícia:
IA gera preocupações sobre a possibilidade de ensinar a criar armas biológicas
Ouvir a notícia
IA gera preocupações sobre a possibilidade de ensinar a criar armas biológicas - IA gera preocupações sobre a possibilidade de ensinar a criar armas biológicas
A segurança da inteligência artificial (IA) tem sido um tema central nas discussões sobre seu potencial para gerar conteúdos perigosos, como armas biológicas. Recentemente, um artigo intitulado "Deep Ignorance" trouxe à tona uma abordagem inovadora para aumentar a segurança de modelos de IA, filtrando informações arriscadas desde o pré-treinamento.
A pesquisa, liderada por Stella Biderman, CEO do laboratório Eleuther AI, em colaboração com o Instituto de Segurança de IA do governo britânico, revela que filtrar dados prejudiciais antes do treinamento pode criar salvaguardas mais robustas. Essa estratégia, até então pouco explorada, mostrou que modelos de IA treinados com dados limpos são menos propensos a gerar informações nocivas, mantendo um desempenho equivalente em outras tarefas.
Kyle O’Brien e Stephen Casper, co-autores do estudo, destacam que a maioria das iniciativas de segurança se concentra em ajustes pós-treinamento, que podem ser facilmente revertidos. A proposta de pré-filtragem visa garantir que os modelos permaneçam seguros mesmo diante de tentativas de adulteração. Biderman enfatiza que esse tipo de pesquisa é raro devido aos altos custos e ao tempo necessário, o que limita a capacidade de grupos acadêmicos e sem fins lucrativos.
Empresas como OpenAI e Anthropic possuem recursos para implementar essas práticas, mas tendem a ser reservadas sobre seus processos de pré-treinamento. A OpenAI, por exemplo, admite que utiliza filtragem de dados para eliminar conteúdos prejudiciais, como informações sobre biossegurança, antes do treinamento de seus modelos. Essa transparência é um dos objetivos do estudo, que busca incentivar uma discussão mais ampla sobre a segurança na IA.
Biderman critica a narrativa da indústria de que os conjuntos de dados são tão grandes que não podem ser documentados. Para ela, é fundamental demonstrar que é possível realizar um trabalho rigoroso e responsável na filtragem de dados, contribuindo para um desenvolvimento mais seguro da inteligência artificial.
Perguntas Relacionadas
Comentários
Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.