CotidianoTecnologia

17 de ago 2025

IA gera preocupações sobre a possibilidade de ensinar a criar armas biológicas

Estudo propõe filtrar dados prejudiciais antes do treinamento de IA, aumentando a segurança e mantendo o desempenho dos modelos

É possível impor limites de informações para as IAs (Foto: Andres Kudacki/NYT)

É possível impor limites de informações para as IAs (Foto: Andres Kudacki/NYT)

Ouvir a notícia

IA gera preocupações sobre a possibilidade de ensinar a criar armas biológicas - IA gera preocupações sobre a possibilidade de ensinar a criar armas biológicas

0:000:00

A segurança da inteligência artificial (IA) tem sido um tema central nas discussões sobre seu potencial para gerar conteúdos perigosos, como armas biológicas. Recentemente, um artigo intitulado "Deep Ignorance" trouxe à tona uma abordagem inovadora para aumentar a segurança de modelos de IA, filtrando informações arriscadas desde o pré-treinamento.

A pesquisa, liderada por Stella Biderman, CEO do laboratório Eleuther AI, em colaboração com o Instituto de Segurança de IA do governo britânico, revela que filtrar dados prejudiciais antes do treinamento pode criar salvaguardas mais robustas. Essa estratégia, até então pouco explorada, mostrou que modelos de IA treinados com dados limpos são menos propensos a gerar informações nocivas, mantendo um desempenho equivalente em outras tarefas.

Kyle O’Brien e Stephen Casper, co-autores do estudo, destacam que a maioria das iniciativas de segurança se concentra em ajustes pós-treinamento, que podem ser facilmente revertidos. A proposta de pré-filtragem visa garantir que os modelos permaneçam seguros mesmo diante de tentativas de adulteração. Biderman enfatiza que esse tipo de pesquisa é raro devido aos altos custos e ao tempo necessário, o que limita a capacidade de grupos acadêmicos e sem fins lucrativos.

Empresas como OpenAI e Anthropic possuem recursos para implementar essas práticas, mas tendem a ser reservadas sobre seus processos de pré-treinamento. A OpenAI, por exemplo, admite que utiliza filtragem de dados para eliminar conteúdos prejudiciais, como informações sobre biossegurança, antes do treinamento de seus modelos. Essa transparência é um dos objetivos do estudo, que busca incentivar uma discussão mais ampla sobre a segurança na IA.

Biderman critica a narrativa da indústria de que os conjuntos de dados são tão grandes que não podem ser documentados. Para ela, é fundamental demonstrar que é possível realizar um trabalho rigoroso e responsável na filtragem de dados, contribuindo para um desenvolvimento mais seguro da inteligência artificial.

Descubra mais com asperguntas relacionadas
crie uma conta e explore as notícias de forma gratuita.acessar o meu tela

Perguntas Relacionadas

Participe da comunidadecomentando
Faça o login e comente as notícias de forma totalmente gratuita
No Portal Tela, você pode conferir comentários e opiniões de outros membros da comunidade.acessar o meu tela

Comentários

Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.

Meu Tela

Priorize os conteúdos mais relevantes para você

Experimente o Meu Tela

Crie sua conta e desbloqueie uma experiência personalizada.


No Meu Tela, o conteúdo é definido de acordo com o que é mais relevante para você.

Acessar o Meu Tela