- Em 10º Dia Internacional da Verificação de Fatos, surge orientação sobre como identificar desinformação gerada por IA.
- Um estudo na revista PNAS Nexus com 27 mil pessoas de 27 países da União Europeia mostrou que quase metade considera Manchetes geradas por IA como reais, e IA levantou maior propensão a compartilhar e confiar, quando o tema era um fato real.
- Sinais visuais ainda podem ajudar: inconsistências como objetos distorcidos, vozes fora de sincronismo ou carro que aparece e some, além de imagens excessivamente polidas e textura de pele questionável.
- Para verificar, use busca reversa de imagem (Google, TinEye) e analise metadados ou marcas d’água; a Garmin SynthID (watermark invisível) é citada como exemplo de identificação de conteúdo gerado.
- Consulte organizações de checagem na Europa (EFCSN, EDMO, EUvsDisinfo) e bases como o Database of Known Fakes; utilize ferramentas de detecção de IA com cautela, pois nem sempre são precisas.
O Dia Internacional da Checagem dos Fatos é celebrado nesta semana como oportunidade para revisar técnicas de identificação de desinformação gerada por inteligência artificial. O estudo recente examina como distinguir conteúdos criados por humanos ou por IA, em especial em oito manchetes simuladas.
Em uma pesquisa publicada na revista PNAS Nexus, 27 mil pessoas de 27 países da UE classificaram manchetes humanas e de IA. Quase metade avaliou as manchetes de IA como reais ou muito próximas disso, pese a diferença para textos humanos.
Os pesquisadores ressaltam que muitos respondentes não conseguem distinguir entre conteúdo humano e gerado por IA, especialmente em casos de eventos reais. O estudo também aponta maior probabilidade de compartilhamento de notícias de IA conhecidas como falsas.
Look for visual cues
Os primeiros sinais de IA em vídeos eram falhas visíveis como dedos demais em uma mão, sincronização de voz imperfeita ou objetos distorcidos. Embora menos frequentes hoje, ainda existem inconsistências que merecem atenção.
Vídeos podem apresentar cenas em que um carro aparece e desaparece, ou acabamento excessivamente polido. A GIJN recomenda avaliar se a pessoa parece “magazine-ready” para o contexto, inclusive em zonas de conflito.
Do your research
Ao desconfiar de uma imagem ou vídeo, utilize pesquisas reversas para verificar autenticidade. Tirando um screenshot e usando a busca por imagem, é possível identificar onde a peça foi publicada pela primeira vez.
Outras ferramentas, como TinEye ou mecanismos de busca tradicionais, ajudam a rastrear a origem. Métodos técnicos podem apontar marcas d’água ou metadados que indiquem confiabilidade, conforme a Comissão Europeia.
Imagens geradas com o Gemini da Google, por exemplo, podem apresentar uma marca d’água invisível chamada SynthID detectável pelo app.
Listen to the experts
Medias, figuras públicas ou especialistas em desinformação costumam marcar conteúdos falsos já desmentidos. Organizações de checagem na Europa, como EFCSN, EDMO e EUvsDisinfo, costumam publicar tendências, pesquisas e desmentidos sobre desinformação gerada por IA.
Essas fontes podem oferecer técnicas mais avançadas para identificação de conteúdo sintético ou indicar informações adicionais não disponíveis ao público.
Make use of technology
Existem ferramentas de detecção de IA, mas a precisão varia. Entre elas estão Winston AI para imagens, TruthScan para avaliação inicial de imagens e Originality AI para textos.
Algumas ferramentas incluem marcas visíveis de água, que podem ser removidas com facilidade, por isso a ausência de marca não comprova autenticidade.
Slow down
Pausar antes de compartilhar ajuda a evitar reações impulsivas. Comentários de outros usuários podem indicar indícios de IA. Nem sempre é possível determinar a procedência, portanto é essencial manter a vigilância constante.
Entre na conversa da comunidade