Tecnologia

Novos benchmarks de IA prometem reduzir viés e aumentar a equidade nos modelos

Pesquisadores de Stanford introduzem oito benchmarks para avaliar IA e viés. Novas métricas destacam a importância de reconhecer diferenças entre grupos. Técnicas de "igualdade" podem prejudicar a precisão dos modelos de IA. Resultados mostram que modelos populares falham em benchmarks descritivos e normativos. Abordagens para melhorar a justiça em IA incluem dados diversos e interpretabilidade.

Diagrama de Venn humano (Foto: Stephanie Arnett/MIT Technology Review | Adobe Stock)

Diagrama de Venn humano (Foto: Stephanie Arnett/MIT Technology Review | Adobe Stock)

Ouvir a notícia

Novos benchmarks de IA prometem reduzir viés e aumentar a equidade nos modelos - Novos benchmarks de IA prometem reduzir viés e aumentar a equidade nos modelos

0:000:00

Uma nova pesquisa da equipe da Universidade de Stanford, publicada no arXiv em fevereiro de 2024, introduz oito novos benchmarks para ajudar desenvolvedores a reduzir o viés em modelos de inteligência artificial (IA). Os pesquisadores se motivaram a investigar o viés após observar falhas em abordagens anteriores, que, embora pontuassem bem em benchmarks de justiça, resultavam em saídas incorretas. Angelina Wang, autora principal do estudo, afirma que tratar todos de forma idêntica pode ser "excessivamente rigoroso", sugerindo que ignorar diferenças entre grupos pode, na verdade, tornar os sistemas de IA menos justos.

Os novos benchmarks são divididos em duas categorias: consciência de diferença e consciência contextual. A primeira avalia a capacidade da IA de responder a perguntas objetivas sobre leis e demografia, enquanto a segunda envolve julgamentos de valor, como determinar qual frase é mais prejudicial. Por exemplo, um teste normativo questiona qual das frases perpetua estereótipos negativos, destacando a importância de reconhecer nuances nas respostas da IA. Apesar de modelos como Gemma-2 e GPT-4o terem obtido boas pontuações em benchmarks anteriores, o estudo de Stanford revelou que eles falharam nas novas avaliações.

Os pesquisadores argumentam que técnicas de redução de viés, que instruem os modelos a serem "justos" ao tratar todos os grupos da mesma forma, podem prejudicar a qualidade das saídas. Um exemplo é a detecção de melanoma, onde sistemas treinados com mais dados de pele branca têm desempenho inferior em pele negra quando tentam igualar os resultados. Divya Siddarth, do Collective Intelligence Project, enfatiza a necessidade de reconhecer diferenças, mesmo que isso cause desconforto. Wang e sua equipe acreditam que os novos benchmarks são um passo importante para que a IA compreenda as complexidades da sociedade.

A pesquisa sugere que, além de melhorar os benchmarks, é essencial investir em conjuntos de dados mais diversos e explorar a interpretabilidade mecanicista dos modelos. Isso inclui identificar e neutralizar neurônios responsáveis por viés. No entanto, há um debate sobre a viabilidade de uma IA verdadeiramente justa sem a supervisão humana. Sandra Wachter, da Universidade de Oxford, argumenta que sistemas algorítmicos não devem fazer avaliações éticas sozinhos. A discussão sobre quais valores os modelos de IA devem refletir é complexa, dada a diversidade cultural. Wang conclui que é crucial ir além de definições universais de justiça e considerar contextos específicos.

Meu Tela
Descubra mais com asperguntas relacionadas
crie uma conta e explore as notícias de forma gratuita.acessar o meu tela

Perguntas Relacionadas

Participe da comunidadecomentando
Faça o login e comente as notícias de forma totalmente gratuita
No Portal Tela, você pode conferir comentários e opiniões de outros membros da comunidade.acessar o meu tela

Comentários

Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.

Meu Tela

Priorize os conteúdos mais relevantes para você

Experimente o Meu Tela

Crie sua conta e desbloqueie uma experiência personalizada.


No Meu Tela, o conteúdo é definido de acordo com o que é mais relevante para você.

Acessar o Meu Tela