Tecnologia

Guia prático orienta pesquisadores sobre o uso ético da inteligência artificial na ciência

Lançado guia prático para uso ético da Inteligência Artificial Generativa (IAG) na pesquisa. O documento aborda princípios normativos e orientações práticas para pesquisadores. Destaca a necessidade de regulamentação e discussões institucionais sobre IAG. Aponta riscos como privacidade, plágio e impactos ambientais no uso da tecnologia. Sugere que a IAG deve ser assistente na pesquisa, não protagonista, promovendo reflexão crítica.

Pesquisadores, professores e estudantes ainda se sentem inseguros sobre como usar essas plataformas de inteligência artificial (Foto: Getty Images/VEJA)

Pesquisadores, professores e estudantes ainda se sentem inseguros sobre como usar essas plataformas de inteligência artificial (Foto: Getty Images/VEJA)

Ouvir a notícia

Guia prático orienta pesquisadores sobre o uso ético da inteligência artificial na ciência - Guia prático orienta pesquisadores sobre o uso ético da inteligência artificial na ciência

0:000:00

A Inteligência Artificial Generativa (IAG) já se tornou parte integrante do cotidiano, com ferramentas como ChatGPT, Claude, Gemini e Deep Seek sendo amplamente utilizadas em aplicativos e plataformas de busca. Apesar de sua utilidade, muitos acadêmicos ainda expressam insegurança em relação ao uso dessas tecnologias, especialmente devido ao risco de exposição de dados de pesquisa a empresas estrangeiras. Isso levanta preocupações sobre a privacidade e a possibilidade de que informações inéditas sejam incorporadas em modelos de IA, sem o devido crédito aos autores.

Outro aspecto crítico é o custo ambiental associado à operação de grandes servidores que suportam essas tecnologias. O consumo elevado de energia e água para refrigeração é uma questão que precisa ser mais discutida, especialmente em um contexto acadêmico que já se preocupa com a sustentabilidade. A Deep Seek, por sua vez, apresentou um modelo que promete custos de treinamento e uso significativamente menores, o que pode impactar positivamente o mercado.

Além disso, as chamadas “alucinações” da IA, que geram informações falsas ou referências inexistentes, podem comprometer a credibilidade de pesquisas. A falta de supervisão e letramento em IAG por parte de pesquisadores pode resultar em erros graves, especialmente se houver confiança excessiva nas respostas geradas. Apesar dos riscos, a integração da IA em ferramentas como Microsoft Office e Google Docs facilita processos acadêmicos, tornando-os mais ágeis.

Para abordar essas preocupações, foi lançado o guia “Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa”, que visa orientar a comunidade científica brasileira. O material discute princípios éticos e oferece orientações práticas para o uso da IAG em diferentes etapas da pesquisa. O guia enfatiza a importância de uma abordagem crítica e cautelosa, sugerindo que os pesquisadores avaliem cuidadosamente os benefícios e riscos antes de utilizar essas tecnologias, além de exigir maior transparência das empresas responsáveis.

Meu Tela
Descubra mais com asperguntas relacionadas
crie uma conta e explore as notícias de forma gratuita.acessar o meu tela

Perguntas Relacionadas

Participe da comunidadecomentando
Faça o login e comente as notícias de forma totalmente gratuita
No Portal Tela, você pode conferir comentários e opiniões de outros membros da comunidade.acessar o meu tela

Comentários

Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.

Meu Tela

Priorize os conteúdos mais relevantes para você

Experimente o Meu Tela

Crie sua conta e desbloqueie uma experiência personalizada.


No Meu Tela, o conteúdo é definido de acordo com o que é mais relevante para você.

Acessar o Meu Tela