Uma nova onda de sistemas de “raciocínio” de empresas como a OpenAI está produzindo informações incorretas com mais frequência. Nem mesmo as empresas sabem o motivo (Foto: Erik Carter/The New York Times)

Uma nova onda de sistemas de “raciocínio” de empresas como a OpenAI está produzindo informações incorretas com mais frequência. Nem mesmo as empresas sabem o motivo (Foto: Erik Carter/The New York Times)

Ouvir a notícia

Bots de IA geram confusão ao anunciar mudanças inexistentes na política da Cursor - Bots de IA geram confusão ao anunciar mudanças inexistentes na política da Cursor

0:000:00

No mês passado, um bot de inteligência artificial (IA) que oferece suporte técnico para a Cursor, uma ferramenta voltada a programadores, anunciou erroneamente uma mudança de política. O bot informou que os usuários não poderiam mais utilizar o serviço em mais de um computador, gerando descontentamento entre os clientes. Alguns cancelaram suas contas, enquanto outros expressaram sua frustração em fóruns online. O CEO e cofundador da Cursor, Michael Truell, esclareceu em uma postagem no Reddit que não existe tal política e que os usuários podem continuar utilizando o Cursor em várias máquinas.

A situação destaca um problema crescente com o uso de bots de IA. Embora essas tecnologias tenham se tornado comuns em diversas tarefas, a precisão das informações que fornecem continua sendo uma preocupação. Estudos recentes indicam que as taxas de alucinação — quando a IA gera informações incorretas ou inventadas — estão aumentando. Em testes, sistemas de IA, como os da OpenAI, apresentaram taxas de alucinação de até 79%.

Apesar dos avanços nas habilidades matemáticas dos bots, sua capacidade de fornecer informações factuais tem se tornado mais instável. Os sistemas atuais aprendem analisando grandes volumes de dados, mas não conseguem discernir entre o verdadeiro e o falso. A OpenAI revelou que seu sistema mais recente, o o4-mini, teve uma taxa de alucinação de 48% em um teste específico, superando a taxa de 33% do sistema anterior, o o3.

Esses erros podem ser problemáticos, especialmente em contextos que exigem precisão, como informações médicas ou jurídicas. Especialistas alertam que, sem uma abordagem adequada para lidar com essas falhas, o valor dos sistemas de IA pode ser comprometido. A Cursor não respondeu a pedidos de comentário sobre a situação, mas a crescente preocupação com a confiabilidade dos bots de IA continua a ser um tema relevante no setor tecnológico.

Meu Tela
Descubra mais com asperguntas relacionadas
crie uma conta e explore as notícias de forma gratuita.acessar o meu tela

Perguntas Relacionadas

Participe da comunidadecomentando
Faça o login e comente as notícias de forma totalmente gratuita
No Portal Tela, você pode conferir comentários e opiniões de outros membros da comunidade.acessar o meu tela

Comentários

Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.

Meu Tela

Priorize os conteúdos mais relevantes para você

Experimente o Meu Tela

Crie sua conta e desbloqueie uma experiência personalizada.


No Meu Tela, o conteúdo é definido de acordo com o que é mais relevante para você.

Acessar o Meu Tela