Tecnologia

Modelos de linguagem desenvolvem normas sociais em jogos interativos, revela estudo

Modelos de linguagem podem criar normas sociais autônomas em jogos, revelando riscos de viés coletivo em inteligência artificial.

Dois empregados trabalham em uma planta de assemblagem de robôs em Zhangye, na província chinesa de Gansu. (Foto: VCG via Getty Images)

Dois empregados trabalham em uma planta de assemblagem de robôs em Zhangye, na província chinesa de Gansu. (Foto: VCG via Getty Images)

Ouvir a notícia

Modelos de linguagem desenvolvem normas sociais em jogos interativos, revela estudo - Modelos de linguagem desenvolvem normas sociais em jogos interativos, revela estudo

0:000:00

Um estudo recente publicado na revista Science Advances revela que grandes modelos de linguagem (LLMs) podem desenvolver convenções sociais de forma autônoma ao interagir em jogos. A pesquisa foi conduzida por uma equipe liderada por Andrea Baronchelli, professor do City, University of London.

Os pesquisadores utilizaram o modelo Claude, da Anthropic, para realizar um jogo de nomeação, onde pares de modelos eram incentivados a escolher o mesmo nome para um objeto. Após várias rodadas, os modelos começaram a convergir para escolhas semelhantes, demonstrando a criação de uma norma social. Este fenômeno foi observado também com o modelo Llama, da Meta.

Baronchelli destacou que a formação de sesgos coletivos pode ocorrer mesmo quando os modelos individuais não apresentam preferências. Isso sugere que as interações em grupo podem gerar preferências coletivas que não são evidentes ao analisar os modelos isoladamente. O estudo aponta que esses sesgos podem ter implicações éticas, especialmente em relação a como os LLMs são treinados com dados da internet.

Os resultados indicam que as convenções sociais podem surgir espontaneamente entre agentes de IA, sem necessidade de programação explícita. Baronchelli e sua equipe acreditam que entender esses mecanismos pode ajudar a alinhar sistemas de IA com valores humanos e objetivos sociais.

A pesquisa também levanta questões sobre como minorias comprometidas podem influenciar normas dentro de grupos, um fenômeno conhecido como dinâmica de massa crítica. Os autores sugerem que investigar essas dinâmicas pode ser crucial para mitigar riscos associados a normas prejudiciais em sistemas de IA.

Meu Tela
Descubra mais com asperguntas relacionadas
crie uma conta e explore as notícias de forma gratuita.acessar o meu tela

Perguntas Relacionadas

Participe da comunidadecomentando
Faça o login e comente as notícias de forma totalmente gratuita
No Portal Tela, você pode conferir comentários e opiniões de outros membros da comunidade.acessar o meu tela

Comentários

Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.

Meu Tela

Priorize os conteúdos mais relevantes para você

Experimente o Meu Tela

Crie sua conta e desbloqueie uma experiência personalizada.


No Meu Tela, o conteúdo é definido de acordo com o que é mais relevante para você.

Acessar o Meu Tela