Em Alta NotíciasConflitoseconomiaFutebolrelações internacionais

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?

Teste de 75 anos mostra que máquinas pensam como humanos

O Teste de Turing, criado há setenta e cinco anos, segue usado para avaliar se IA imita humanos; ChatGPT 4.5 foi julgado humano em maioria das avaliações

Telinha
Por Revisado por: Time de Jornalismo Portal Tela
Máquinas já 'pensam' como humanos? — Foto: BBC/Getty Images
0:00
Carregando...
0:00
  • O Teste de Turing, criado por Alan Turing em mil novecentos e cinquenta, avalia se o comportamento de uma máquina é indistinguível do humano, indicando inteligência.
  • Em dois mil e quatorze, o chatbot Eugene Goostman convenceu 33% dos juízes de que era humano, adotando a persona de um garoto ucraniano de treze anos.
  • Em dois mil e vinte e cinco, estudo mostrou o ChatGPT-4.5 julgado como humano em setenta e três por cento das vezes, enquanto o Llama 3.1 atingiu cinquenta e seis por cento.
  • O debate persiste: passar no teste não comprova que a máquina realmente pensa; o argumento do quarto chinês de John Searle ilustra a diferença entre imitar e entender de fato.
  • Existem testes alternativos, como o CBIT (Teste de Inteligência Baseado em Comunidade), além de propostas que avaliam a inteligência em ambientes naturais ou com medidas mais concretas de capacidade.

O debate sobre se a IA já pensa como humanos ganhou fôlego com o avanço recente de modelos conversacionais. O tema remete ao Teste de Turing, criado por Alan Turing em 1950, que avalia se o comportamento de uma máquina é indistinguível do humano.

Em 2014, o chatbot Eugene Goostman conseguiu enganar 33% dos juízes, passando perto do limiar estipulado para o teste. A forma de atuação incluiu a adoção de uma personalidade de menino ucraniano de 13 anos, o que levantou debates sobre a justiça do desafio.

Desde então, pesquisadores destacam avanços significativos. Em estudo de início de 2025, o ChatGPT 4.5 da OpenAI foi julgado como humano em 73% das interações, enquanto o Llama 3.1 da Meta teve 56% de parecer humano, segundo a análise citada.

Para alguns especialistas, os números não comprovam que as máquinas realmente pensam, mas indicam que respondem de maneira cada vez mais natural em determinadas situações. A avaliação ainda depende de como o teste é aplicado e de que perguntas são utilizadas.

O debate também envolve críticas ao próprio conceito. Propõem-se que o foco seja menos em enganar o avaliador e mais em avaliar utilidade, robustez e compreensão, inclusive em ambientes naturais de uso.

Pesquisadores que defendem o Teste de Turing afirmam que ele permanece relevante para medir a capacidade de uma IA em imitar o comportamento humano, especialmente em interações online cotidianas. O desafio permanece em tornar esses testes mais informativos e seguros.

Entre as propostas alternativas, está o CBIT, que coloca a IA em comunidades reais para observar se os usuários percebem tratar-se de máquina. A ideia é medir a inteligência em situações genuínas, não apenas em emulação de diálogo.

Especialistas sugerem ainda que avanços em IA Geral exigem novos marcos regulatórios, com maior transparência sobre quando uma IA está envolvida na produção de conteúdo, para responsabilização e uso ético.

Comentários 0

Entre na conversa da comunidade

Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais