- O fundador da Wikipedia, Jimmy Wales, disse não estar preocupado com conteúdo gerado por IA ameaçar a enciclopédia, pois as informações tendem a erros.
- Ele chamou Grokipedia, enciclopédia criada por IA de Elon Musk, de “imitação caricatural de uma enciclopédia”.
- Wales ressaltou que a verificação humana torna os artigos mais confiáveis, com contribuições de voluntários.
- Os comentários foram feitos à Bloomberg News, à margem do India AI Impact Summit em Nova Délhi, evento com leaders de tecnologia envolvidos.
- Ele lembrou que alucinações são comuns em grandes modelos de linguagem, citando estudo de 2025 da OpenAI com taxas de até 79% em alguns testes.
Jimmy Wales, fundador da Wikipedia, afirmou que conteúdos gerados por IA não preocupam a enciclopédia gratuita, pois, segundo ele, informações criadas por máquinas costumam apresentar erros. Em entrevista à Bloomberg News, ele explicou que o conhecimento na Wikipedia é verificado por humanos e que não aceitariam artigos produzidos por IA.
Wales citou como problema comum dos grandes modelos de linguagem a ocorrência de alucinações, informações falsas apresentadas como reais. Ele mencionou projetos rivais, como a Grokipedia, enciclopédia gerada por IA da XAI de Elon Musk, chamando-a de uma caricatura de enciclopédia.
A entrevista ocorreu à margem do India AI Impact Summit, em Nova Délhi, um evento que reuniu líderes de tecnologia e chefes de estado. Além de Wales, participaram representantes da OpenAI, Alphabet, Anthropic e outras empresas do setor.
O fundador ressaltou que artigos humanos se beneficiam das contribuições de especialistas, o que reduz imprecisões e gera conteúdo mais confiável. Ele destacou que o contexto humano completo ajuda a entender o que o leitor precisa e quer saber.
Wales reforçou que a confiabilidade da Wikipedia depende da participação de editores voluntários. Ele disse que a diversidade de perspectivas e a verificação humana são elementos centrais para manter a qualidade da enciclopédia online.
Dados de pesquisa também foram usados para contextualizar o tema. Um estudo divulgado pela OpenAI em 2025 indicou que as alucinações continuam presentes mesmo em modelos avançados, com índices elevados em tópicos mais obscuros ou especializados.
Entre na conversa da comunidade