Em Alta NotíciasConflitoseconomiaFutebolrelações internacionais

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?

Uso de inteligência artificial em artigos científicos gera preocupações sobre integridade acadêmica

Uso não declarado de IA em artigos acadêmicos gera investigações e levanta questões sobre a integridade científica na publicação.

Telinha
Por Revisado por: Time de Jornalismo Portal Tela
0:00 0:00

O uso de ferramentas de inteligência artificial na redação acadêmica está gerando preocupações sobre a integridade científica. Pesquisadores descobriram centenas de artigos que mostram sinais de uso não declarado de IA, o que levou editoras a investigar se essas publicações seguem suas regras. Alguns indícios incluem frases típicas de chatbots, como “regenerate response”, que foram encontradas em artigos, sugerindo que autores podem ter copiado respostas geradas por IA. Um instrutor da Universidade de Louisville, Alex Glynn, registrou mais de 700 artigos em um rastreador online chamado Academ-AI. Em uma análise de quinhentos artigos, ele encontrou que 13% estavam em revistas de grandes editoras, como Elsevier e Springer Nature. Outro pesquisador, Artur Strzelecki, também encontrou casos de uso não declarado de IA em revistas de prestígio, identificando 64 artigos. Editoras como Springer Nature e Taylor & Francis confirmaram que estão investigando os artigos sinalizados. As regras sobre o uso de IA variam entre as editoras, e algumas não exigem que o uso de IA seja declarado em certas situações. A IOP Publishing, por exemplo, criou uma política em 2023 que incentiva a divulgação, mas não a torna obrigatória. Essas mudanças refletem a crescente presença de ferramentas de IA na pesquisa acadêmica e a preocupação com a integridade científica à medida que a comunidade acadêmica busca equilibrar inovação e ética na publicação.

O uso de ferramentas de inteligência artificial (IA), como o ChatGPT, na redação acadêmica tem gerado preocupações sobre a integridade científica. Recentemente, pesquisadores identificaram centenas de artigos com indícios de uso não declarado de IA, levando editoras a investigar a conformidade com suas políticas.

Esses sinais incluem frases típicas de chatbots, como “regenerate response” e “I am an AI language model”. Tais expressões foram encontradas em artigos, indicando que autores podem ter copiado e colado respostas geradas por IA. Alex Glynn, instrutor da Universidade de Louisville, destaca que mais de 700 artigos foram registrados em um rastreador online que ele criou, chamado Academ-AI.

Em uma análise de quinhentos artigos, Glynn constatou que 13% deles estavam em revistas de grandes editoras, como Elsevier e Springer Nature. Artur Strzelecki, da Universidade de Economia de Katowice, também encontrou exemplos de uso não declarado de IA em revistas de alto prestígio, identificando sessenta e quatro artigos em publicações da categoria superior.

Editoras como Springer Nature e Taylor & Francis confirmaram que os artigos sinalizados estão sob investigação. As políticas de uso de IA variam, e algumas editoras não exigem a divulgação do uso de IA em certas circunstâncias. A IOP Publishing, por exemplo, introduziu uma política em 2023 que encoraja a divulgação, mas não a torna obrigatória.

Essas mudanças nas diretrizes refletem a crescente presença das ferramentas de IA na pesquisa acadêmica. A preocupação com a integridade científica é um tema central, à medida que a comunidade acadêmica busca equilibrar inovação e ética na publicação científica.

Relacionados:

Comentários 0

Entre na conversa da comunidade

Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais