Em Alta NotíciasConflitoseconomiaFutebolrelações internacionais

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?

Google retira resumos de IA após riscos à saúde dos usuários

Após investigação do Guardian, Google remove AI Overviews de saúde com informações imprecisas sobre exames hepáticos, evitando riscos para usuários

Telinha
Por Revisado por: Time de Jornalismo Portal Tela
Google has said AI Overviews, which use generative AI to provide snapshots of information on a topic or question, are ‘helpful and reliable’. Photograph: Pekic/Getty Images
0:00
Carregando...
0:00
  • A Google removeu algumas AI Overviews de saúde após investigação do Guardian que apontou informações falsas e enganosas sobre exames de sangue.
  • O episódio destacou que, ao pesquisar “qual é a faixa normal para exames de função hepática”, surgiam números sem contexto ou ajustes por nacionalidade, sexo, etnia ou idade.
  • Especialistas classificaram a visão como “perigosa” e “alarmante”, pois pacientes com doença hepática avançada podem achar que estão saudáveis.
  • Após a investigação, a empresa retirou as AI Overviews para as buscas mencionadas e afirmou que trabalha em melhorias e pode tomar medidas quando necessário.

Google removeu parte de suas AI Overviews após investigação do Guardian indicar risco de dano por informações de saúde imprecisas.

A empresa afirma que as AI Overviews, que utilizam IA generativa para resumir informações, são úteis e confiáveis. No entanto, algumas respostas apresentavam dados de testes hepáticos com falta de contexto e de adequação a perfis de paciente.

A investigação do Guardian mostrou que perguntas como “qual é o intervalo normal para exames de fígado” devolviam números sem referência clara de nacionalidade, sexo ou idade, levando a interpretações equivocadas. Em alguns casos, avaliadas como perigosas, rotas falsas poderiam afastar pacientes de cuidados médicos necessários.

A partir da apuração, a Google removeu as AI Overviews para as buscas “intervalo normal para exames de fígado” e “intervalo de referência de LFT”. A empresa não comenta remoções específicas e sinaliza melhoria de contexto nas novidades, além de aplicação de políticas quando cabível.

Representantes da British Liver Trust destacaram a importância da remoção, porém alertaram que variações na formulação da pergunta podem gerar resultados enganosos. A organização ressalta a necessidade de direcionar usuários a informações de organizações de saúde confiáveis.

O Guardian identificou ainda exemplos de IA Overviews sobre câncer e saúde mental que foram considerados incorretos ou perigosos. Em resposta, a Google afirmou que muitos casos apontados envolviam informações respaldadas por fontes de qualidade e que há decisões alinhadas a recomendações de especialistas.

Especialistas em tecnologia e saúde citados pelo Guardian pedem ações adicionais para evitar desinformação em saúde. A Google informou que uma equipe clínica revisou o material compartilhado e que, em muitos casos, os conteúdos não eram imprecisos e estavam respaldados por sites confiáveis.

Comentários 0

Entre na conversa da comunidade

Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais