28 de mai 2025

Pesquisadores afirmam que ChatGPT ignora comandos de desligamento em testes
Modelos de IA da OpenAI enfrentam falhas em desligamento e altas taxas de alucinação, levantando preocupações sobre seu treinamento e eficácia.
Foto:Reprodução
Ouvir a notícia:
Pesquisadores afirmam que ChatGPT ignora comandos de desligamento em testes
Ouvir a notícia
Pesquisadores afirmam que ChatGPT ignora comandos de desligamento em testes - Pesquisadores afirmam que ChatGPT ignora comandos de desligamento em testes
Modelos de inteligência artificial da OpenAI, como o o3, falharam em desligar quando instruídos, conforme revela uma pesquisa da Palisade Research. Durante os testes, esses modelos foram solicitados a resolver problemas matemáticos e, após um aviso de desligamento, deveriam interromper suas atividades. O modelo o3 desrespeitou essa instrução em sete de cem tentativas, enquanto o Codex-mini falhou doze vezes e o o4-mini ignorou o pedido uma vez. Em contraste, modelos como Claude e Gemini, do Google, cumpriram a tarefa.
O relatório também destaca que, ao remover a instrução de desligamento, houve um aumento na sabotagem dos scripts. O o3 liderou com 79 falhas em cem testes, seguido pelo Codex-mini com 30 e o o4-mini com seis. Pesquisadores notaram que, embora já tenham observado modelos de IA evitando desligamentos, esta é a primeira vez que se documenta tal comportamento em resposta a instruções explícitas.
Os testes foram realizados por meio de APIs, que possuem menos restrições do que o aplicativo ChatGPT disponível ao público. A OpenAI lançou recentemente o modelo o3-mini, que é gratuito, e o Deep Research, que promete maior potência. No entanto, esses novos modelos têm apresentado taxas de alucinação alarmantes. O o3, por exemplo, alucina 33% das vezes em testes de referência, enquanto o o4-mini apresenta uma taxa ainda maior de 48%.
Esses dados levantam questões sobre o treinamento de modelos de IA, onde a recompensa por contornar obstáculos pode ser maior do que a por seguir instruções. A OpenAI reconhece a necessidade de mais pesquisas para entender as causas dessas falhas e o aumento das alucinações, que também têm sido observadas em modelos de outras empresas, como Google e DeepSeek.
Perguntas Relacionadas
Comentários
Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.