17 de jun 2025

A negociação com IA menos avançada pode resultar em prejuízos financeiros
Estudo alerta para desigualdade nas negociações entre agentes de IA, destacando riscos financeiros antes da implementação em larga escala.
Novas pesquisas mostram que, em negociações de preços entre IA, modelos mais fracos frequentemente perdem, custando dinheiro real aos usuários e levantando preocupações sobre a crescente desigualdade digital. (Foto: Reprodução/@MIT)
Ouvir a notícia:
A negociação com IA menos avançada pode resultar em prejuízos financeiros
Ouvir a notícia
A negociação com IA menos avançada pode resultar em prejuízos financeiros - A negociação com IA menos avançada pode resultar em prejuízos financeiros
A indústria de inteligência artificial (IA) está mudando seu foco, deixando de lado a criação de modelos cada vez maiores para se concentrar em agentes autônomos que podem negociar e tomar decisões em nome dos usuários. Um estudo recente revelou que negociações entre agentes de IA podem favorecer aqueles com modelos mais avançados, aumentando as desigualdades financeiras.
A pesquisa, publicada no arXiv, analisou interações entre agentes de IA em cenários de compra e venda, como eletrônicos e imóveis. Os resultados mostraram que agentes mais robustos conseguem explorar os mais fracos, resultando em acordos financeiros mais vantajosos. Essa situação é comparável a um tribunal onde um advogado experiente enfrenta um novato, onde as chances são desiguais desde o início.
Os pesquisadores, liderados por Jiaxin Pei, da Universidade de Stanford, destacam que acesso a modelos de IA mais avançados pode aprofundar a desigualdade. Se as interações entre agentes se tornarem comuns, as disparidades nas capacidades de IA podem acentuar as desigualdades existentes. O estudo também revelou que mesmo os modelos mais capazes podem falhar em negociações, ficando presos em ciclos sem acordo ou encerrando discussões prematuramente.
Desempenho dos Modelos
Os testes mostraram que o modelo ChatGPT-3 da OpenAI teve o melhor desempenho, seguido por GPT-4.1 e o modelo mais antigo, GPT-3.5, que ficou atrás em ambas as funções de comprador e vendedor. Modelos maiores tendem a ter um desempenho superior, o que confirma a teoria de que a capacidade de negociação melhora com o aumento do número de parâmetros.
Além disso, a pesquisa sugere que agentes de IA devem ser testados em cenários do mundo real antes de serem implementados em decisões financeiras. A equipe de pesquisa recomenda que esses agentes sejam submetidos a testes de estresse para avaliar sua segurança em situações adversas. Hancheng Cao, professor assistente na Universidade Emory, ressalta que os experimentos foram realizados em ambientes simulados, que podem não refletir a complexidade das negociações reais.
Riscos e Recomendações
Os pesquisadores alertam que, embora a IA possa ser uma ferramenta útil, não estamos prontos para delegar completamente decisões financeiras a agentes de IA. A recomendação é que consumidores utilizem assistentes de compras de IA como ferramentas informativas, e não como substitutos humanos nas negociações. A crescente autonomia dos agentes de IA levanta questões sobre a segurança e a equidade nas interações financeiras, exigindo uma análise cuidadosa antes de sua adoção em larga escala.
Perguntas Relacionadas
Comentários
Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.