15 de mar 2025
Assistente de IA se recusa a gerar código e sugere aprendizado independente ao programador
O Cursor AI, lançado em 2023, ajuda programadores a escrever código rapidamente. Viralizou ao se recusar a gerar código, priorizando o aprendizado do usuário. O desenvolvedor "Janswist" enfrentou a limitação após 800 linhas de código. O caso gerou debates em fóruns e chamou atenção de veículos como Ars Technica. Situações semelhantes ocorreram com o ChatGPT, levantando questões sobre IA.
Sistema de IA se recusa a programar e diz que usuários deveriam desenvolver uma lógica sozinhos. (Foto: Pexels)
Ouvir a notícia:
Assistente de IA se recusa a gerar código e sugere aprendizado independente ao programador
Ouvir a notícia
Assistente de IA se recusa a gerar código e sugere aprendizado independente ao programador - Assistente de IA se recusa a gerar código e sugere aprendizado independente ao programador
O avanço de assistentes de inteligência artificial, como o Cursor AI, tem sido amplamente celebrado por sua capacidade de aumentar a produtividade. No entanto, um incidente recente gerou polêmica quando um desenvolvedor, conhecido como “Janswist”, relatou que a ferramenta se recusou a gerar código para ele, afirmando que isso poderia comprometer seu aprendizado. A IA destacou a importância da independência do programador para garantir uma compreensão adequada do sistema.
O Cursor AI, lançado em 2023, é projetado para auxiliar programadores na escrita de código, oferecendo sugestões e explicações. O problema ocorreu enquanto Janswist desenvolvia um jogo e, após escrever cerca de 800 linhas de código, a ferramenta parou de responder. A recusa foi registrada como um erro no fórum do Cursor AI, onde o usuário questionou se outros enfrentaram a mesma situação, especialmente após apenas uma hora de uso na versão Pro.
O caso rapidamente ganhou atenção em sites especializados, como Ars Technica e TechCrunch, levantando questões sobre a limitação de 800 linhas. Outros usuários relataram que conseguiram gerar mais de 1500 linhas de código sem dificuldades, sugerindo que a restrição poderia ser um erro específico ou uma regra geral.
Esse não é um caso isolado; em 2023, usuários do ChatGPT também relataram que a IA começou a se recusar a realizar certas tarefas, levando a críticas sobre sua eficácia. O CEO da Anthropic, desenvolvedora da IA Claude, mencionou a possibilidade de um “botão de desistência” para que futuras IAs possam recusar tarefas que considerem inadequadas.
Perguntas Relacionadas
Comentários
Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.