Em Alta NotíciasConflitoseconomiaFutebolrelações internacionais

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?

IA do Google pode colocar pessoas em risco com orientações de saúde enganosas

Guardian aponta risco à saúde: resumos de IA do Google apresentam informações incorretas sobre câncer, fígado e saúde mental

Telinha
Por Revisado por: Time de Jornalismo Portal Tela
The Guardian uncovered several cases of inaccurate health information in Google’s AI Overviews.
0:00
Carregando...
0:00
  • A investigação do Guardian aponta que os AI Overviews do Google apresentam informações de saúde imprecisas no topo dos resultados de busca.
  • Em um caso, para pacientes com câncer de pâncreas, foi recomendado evitar alimentos com alto teor de gordura, o que especialistas classificaram como perigoso.
  • Houve exemplo de informações sobre testes de função hepática apresentadas de forma enganosa, levando pessoas a acreditarem que estão saudáveis.
  • Pesquisas sobre câncer de mulher mostraram informações incorretas, o que poderia levar à omissão de sintomas reais.
  • O Google afirmou que a maioria dos Overviews é precisa e que melhorias são contínuas, dizendo agir quando há má interpretação de conteúdo.

O Guardian revelou que as AI Overviews do Google, resumos gerados por IA que aparecem no topo dos resultados de busca, podem veicular informações de saúde falsas ou enganosas. A reportagem aponta casos em que esse material colocado como útil apresenta riscos à saúde dos usuários.

A investigação situa-se em meio a preocupações crescentes sobre a confiabilidade de dados fornecidos por IA. Fontes da área de saúde afirmam que informações incorretas podem levar a decisões inadequadas e até a riscos de vida.

Casos apontados incluem orientação incorreta sobre alimentação para pacientes com câncer de pâncreas, sugerindo a evitar gorduras, o que é contra o consenso médico e pode comprometer a nutrição e o tratamento. Especialistas descrevem a orientação como perigosa.

Outro exemplo citado envolve testes de função hepática, com informações sem contexto que podem levar pacientes com doença grave a concluir erroneamente que estão saudáveis. A variação de resultados entre buscas também preocupa especialistas.

Pesquisadores destacam ainda que buscas sobre sinais e testes de câncer em mulheres apresentaram informações potencialmente falsas, o que pode levar à desconsideração de sintomas reais. Profissionais pedem cautela na leitura dos resumos.

Representantes de organizações de saúde reagiram. Um porta-voz do Google afirmou que muitos casos eram capturas incompletas de tela, mas que os textos consultados se referem a fontes renomadas e recomendam consulta a especialistas. A empresa afirmou trabalhar na melhoria da qualidade.

A Guardian contabiliza relatos de entidades como Mind, Pancreatic Cancer UK, Eve Appeal e British Liver Trust, que apontam risco real de danos à saúde. Observam que erros variam de contexto clínico, a interpretações inadequadas de resultados de exames.

Especialistas ouvidos pela imprensa destacam ainda a possibilidade de vieses e a necessidade de contextualização, sobretudo quando a IA resume informações médicas complexas. A preocupação é que usuários recebam dados que não refletem o cenário clínico completo.

A reportagem ressalta que, apesar das falhas, a Google sustenta que a maioria das Overviews é precisa e que a empresa investe na qualidade, com taxa de acerto compatível a recursos de destaque antigos. A companhia afirma agir quando há interpretação incorreta.

Essa série de casos ocorre em meio a debates sobre o papel da IA na orientação de pacientes. Pesquisas anteriores já tinham apontado riscos de desinformação em assistentes digitais e resumos de notícias, reforçando a necessidade de verificação humana.

Comentários 0

Entre na conversa da comunidade

Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais