06 de mai 2025
Bots de IA geram confusão ao anunciar mudanças inexistentes na política da Cursor
Bots de IA enfrentam crescente desconfiança após erro de política da Cursor e aumento nas taxas de alucinação em sistemas como os da OpenAI.
Uma nova onda de sistemas de “raciocínio” de empresas como a OpenAI está produzindo informações incorretas com mais frequência. Nem mesmo as empresas sabem o motivo (Foto: Erik Carter/The New York Times)
Ouvir a notícia:
Bots de IA geram confusão ao anunciar mudanças inexistentes na política da Cursor
Ouvir a notícia
Bots de IA geram confusão ao anunciar mudanças inexistentes na política da Cursor - Bots de IA geram confusão ao anunciar mudanças inexistentes na política da Cursor
No mês passado, um bot de inteligência artificial (IA) que oferece suporte técnico para a Cursor, uma ferramenta voltada a programadores, anunciou erroneamente uma mudança de política. O bot informou que os usuários não poderiam mais utilizar o serviço em mais de um computador, gerando descontentamento entre os clientes. Alguns cancelaram suas contas, enquanto outros expressaram sua frustração em fóruns online. O CEO e cofundador da Cursor, Michael Truell, esclareceu em uma postagem no Reddit que não existe tal política e que os usuários podem continuar utilizando o Cursor em várias máquinas.
A situação destaca um problema crescente com o uso de bots de IA. Embora essas tecnologias tenham se tornado comuns em diversas tarefas, a precisão das informações que fornecem continua sendo uma preocupação. Estudos recentes indicam que as taxas de alucinação — quando a IA gera informações incorretas ou inventadas — estão aumentando. Em testes, sistemas de IA, como os da OpenAI, apresentaram taxas de alucinação de até 79%.
Apesar dos avanços nas habilidades matemáticas dos bots, sua capacidade de fornecer informações factuais tem se tornado mais instável. Os sistemas atuais aprendem analisando grandes volumes de dados, mas não conseguem discernir entre o verdadeiro e o falso. A OpenAI revelou que seu sistema mais recente, o o4-mini, teve uma taxa de alucinação de 48% em um teste específico, superando a taxa de 33% do sistema anterior, o o3.
Esses erros podem ser problemáticos, especialmente em contextos que exigem precisão, como informações médicas ou jurídicas. Especialistas alertam que, sem uma abordagem adequada para lidar com essas falhas, o valor dos sistemas de IA pode ser comprometido. A Cursor não respondeu a pedidos de comentário sobre a situação, mas a crescente preocupação com a confiabilidade dos bots de IA continua a ser um tema relevante no setor tecnológico.
Perguntas Relacionadas
Comentários
Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.