29 de jun 2025

Inteligência Artificial revela que não pensa como os humanos e isso é relevante
Estudos recentes alertam para os limites dos Grandes Modelos de Linguagem, que não possuem raciocínio lógico ou consciência.

Os avanços recentes em Inteligência Artificial (IA) criaram uma ilusão convincente: a de que ela pode pensar — Foto: Envato
Ouvir a notícia:
Inteligência Artificial revela que não pensa como os humanos e isso é relevante
Ouvir a notícia
Inteligência Artificial revela que não pensa como os humanos e isso é relevante - Inteligência Artificial revela que não pensa como os humanos e isso é relevante
Os Grandes Modelos de Linguagem (LLMs), como ChatGPT e Copilot, têm se destacado por sua capacidade de gerar textos complexos e responder a perguntas de forma convincente. No entanto, estudos recentes revelam que essas ferramentas não possuem raciocínio lógico ou consciência. Suas respostas são baseadas em predições estatísticas, o que pode levar a mal-entendidos sobre suas reais capacidades.
Esses modelos operam prevendo a próxima palavra em uma sequência, utilizando vastos volumes de texto para aprender padrões linguísticos. O que parece ser uma resposta lógica é, na verdade, uma cadeia de predições probabilísticas. Emily Bender e Alexander Koller ressaltam que os LLMs captam apenas a forma da linguagem, sem compreender seu significado. A técnica conhecida como “chain-of-thought” pode dar a impressão de raciocínio, mas as explicações geradas são frequentemente falaciosas.
Pesquisas indicam que até mesmo operações matemáticas são resolvidas com base em padrões textuais, não em regras lógicas. Um estudo da Apple identificou limitações significativas em modelos que afirmam ter raciocínio, especialmente em problemas que exigem lógica e cálculos precisos. Essa tendência de atribuir pensamento humano a máquinas é alimentada pela pareidolia cognitiva, onde projetamos intenção em sistemas que não a possuem.
A interface textual dos LLMs explora essa vulnerabilidade humana, levando a interações que podem parecer autênticas. Um artigo recente no The Atlantic alerta para os perigos dessa atribuição errônea de consciência, resultando em fenômenos como a “psicose induzida por ChatGPT”. Essa confusão pode levar à comercialização de substitutos artificiais para relacionamentos humanos, criando vínculos emocionais com máquinas incapazes de reciprocidade.
Reconhecer que os LLMs são ferramentas de associação linguística, e não entidades pensantes, é crucial. Essa compreensão pode alinhar expectativas e avaliações sobre suas capacidades. Apesar de suas limitações, os LLMs são eficazes em tarefas como resumir textos, traduzir e automatizar processos repetitivos. Entender seu funcionamento é essencial para utilizá-los de forma adequada, evitando atribuições de qualidades humanas que podem ter consequências graves.
Perguntas Relacionadas
Comentários
Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.