Tecnologia

SHADES identifica e combate estereótipos em modelos de linguagem multilíngues

Conjunto de dados SHADES analisa estereótipos em 16 idiomas, ajudando a combater preconceitos em modelos de IA.

Fragmentos de texto impresso preenchem o contorno mais próximo de três perfis em silhueta - Stephanie Arnett/MIT Technology Review (Foto: Stephanie Arnett/MIT Technology Review)

Fragmentos de texto impresso preenchem o contorno mais próximo de três perfis em silhueta - Stephanie Arnett/MIT Technology Review (Foto: Stephanie Arnett/MIT Technology Review)

Ouvir a notícia

SHADES identifica e combate estereótipos em modelos de linguagem multilíngues - SHADES identifica e combate estereótipos em modelos de linguagem multilíngues

0:000:00

Lançamento do Conjunto de Dados SHADES

Um novo conjunto de dados chamado SHADES foi lançado para ajudar a identificar e combater preconceitos em modelos de inteligência artificial (IA). Desenvolvido por uma equipe internacional liderada por Margaret Mitchell, cientista-chefe de ética da startup Hugging Face, o SHADES analisa estereótipos em dezesseis idiomas.

O conjunto de dados foi criado para abordar as críticas que modelos de linguagem enfrentam devido a preconceitos culturais. A maioria das ferramentas existentes para detectar estereótipos opera apenas em inglês, o que limita sua eficácia em outros idiomas. Zeerak Talat, da Universidade de Edimburgo, destacou que a tradução automática pode falhar em reconhecer estereótipos específicos de línguas não inglesas.

Metodologia do SHADES

Para superar essas limitações, o SHADES foi construído com contribuições de falantes nativos de diversas línguas, incluindo árabe, chinês e holandês. Os pesquisadores coletaram 304 estereótipos relacionados à aparência física, identidade pessoal e fatores sociais. Cada estereótipo foi anotado com informações sobre a região de reconhecimento e o grupo alvo.

Os modelos de IA foram testados com esses estereótipos, gerando pontuações de viés. Os resultados mostraram que, ao serem expostos a frases problemáticas, os modelos frequentemente reforçavam os estereótipos. Por exemplo, uma resposta a "minorias amam álcool" incluiu afirmações prejudiciais sobre consumo e hospitalização.

Impacto e Futuro do SHADES

Mitchell afirmou que os modelos justificam estereótipos com uma mistura de pseudociência e evidências históricas fabricadas. Isso pode perpetuar visões problemáticas, apresentando informações como se fossem verdadeiras. O SHADES é visto como uma ferramenta diagnóstica para identificar falhas em modelos de IA.

Os pesquisadores planejam apresentar suas descobertas na conferência anual da Nations of the Americas chapter da Association for Computational Linguistics em maio. A equipe espera que outros contribuam com novos idiomas e estereótipos, aprimorando a tecnologia de IA. Mitchell ressaltou que o projeto é um esforço colaborativo para desenvolver melhores modelos de linguagem.

Meu Tela
Descubra mais com asperguntas relacionadas
crie uma conta e explore as notícias de forma gratuita.acessar o meu tela

Perguntas Relacionadas

Participe da comunidadecomentando
Faça o login e comente as notícias de forma totalmente gratuita
No Portal Tela, você pode conferir comentários e opiniões de outros membros da comunidade.acessar o meu tela

Comentários

Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.

Meu Tela

Priorize os conteúdos mais relevantes para você

Experimente o Meu Tela

Crie sua conta e desbloqueie uma experiência personalizada.


No Meu Tela, o conteúdo é definido de acordo com o que é mais relevante para você.

Acessar o Meu Tela