- A investigação do Guardian aponta que os AI Overviews do Google apresentam informações de saúde imprecisas no topo dos resultados de busca.
- Em um caso, para pacientes com câncer de pâncreas, foi recomendado evitar alimentos com alto teor de gordura, o que especialistas classificaram como perigoso.
- Houve exemplo de informações sobre testes de função hepática apresentadas de forma enganosa, levando pessoas a acreditarem que estão saudáveis.
- Pesquisas sobre câncer de mulher mostraram informações incorretas, o que poderia levar à omissão de sintomas reais.
- O Google afirmou que a maioria dos Overviews é precisa e que melhorias são contínuas, dizendo agir quando há má interpretação de conteúdo.
O Guardian revelou que as AI Overviews do Google, resumos gerados por IA que aparecem no topo dos resultados de busca, podem veicular informações de saúde falsas ou enganosas. A reportagem aponta casos em que esse material colocado como útil apresenta riscos à saúde dos usuários.
A investigação situa-se em meio a preocupações crescentes sobre a confiabilidade de dados fornecidos por IA. Fontes da área de saúde afirmam que informações incorretas podem levar a decisões inadequadas e até a riscos de vida.
Casos apontados incluem orientação incorreta sobre alimentação para pacientes com câncer de pâncreas, sugerindo a evitar gorduras, o que é contra o consenso médico e pode comprometer a nutrição e o tratamento. Especialistas descrevem a orientação como perigosa.
Outro exemplo citado envolve testes de função hepática, com informações sem contexto que podem levar pacientes com doença grave a concluir erroneamente que estão saudáveis. A variação de resultados entre buscas também preocupa especialistas.
Pesquisadores destacam ainda que buscas sobre sinais e testes de câncer em mulheres apresentaram informações potencialmente falsas, o que pode levar à desconsideração de sintomas reais. Profissionais pedem cautela na leitura dos resumos.
Representantes de organizações de saúde reagiram. Um porta-voz do Google afirmou que muitos casos eram capturas incompletas de tela, mas que os textos consultados se referem a fontes renomadas e recomendam consulta a especialistas. A empresa afirmou trabalhar na melhoria da qualidade.
A Guardian contabiliza relatos de entidades como Mind, Pancreatic Cancer UK, Eve Appeal e British Liver Trust, que apontam risco real de danos à saúde. Observam que erros variam de contexto clínico, a interpretações inadequadas de resultados de exames.
Especialistas ouvidos pela imprensa destacam ainda a possibilidade de vieses e a necessidade de contextualização, sobretudo quando a IA resume informações médicas complexas. A preocupação é que usuários recebam dados que não refletem o cenário clínico completo.
A reportagem ressalta que, apesar das falhas, a Google sustenta que a maioria das Overviews é precisa e que a empresa investe na qualidade, com taxa de acerto compatível a recursos de destaque antigos. A companhia afirma agir quando há interpretação incorreta.
Essa série de casos ocorre em meio a debates sobre o papel da IA na orientação de pacientes. Pesquisas anteriores já tinham apontado riscos de desinformação em assistentes digitais e resumos de notícias, reforçando a necessidade de verificação humana.
Entre na conversa da comunidade