20 de fev 2025
Guia prático orienta pesquisadores sobre o uso ético da inteligência artificial na ciência
Lançado guia prático para uso ético da Inteligência Artificial Generativa (IAG) na pesquisa. O documento aborda princípios normativos e orientações práticas para pesquisadores. Destaca a necessidade de regulamentação e discussões institucionais sobre IAG. Aponta riscos como privacidade, plágio e impactos ambientais no uso da tecnologia. Sugere que a IAG deve ser assistente na pesquisa, não protagonista, promovendo reflexão crítica.
Pesquisadores, professores e estudantes ainda se sentem inseguros sobre como usar essas plataformas de inteligência artificial (Foto: Getty Images/VEJA)
Ouvir a notícia:
Guia prático orienta pesquisadores sobre o uso ético da inteligência artificial na ciência
Ouvir a notícia
Guia prático orienta pesquisadores sobre o uso ético da inteligência artificial na ciência - Guia prático orienta pesquisadores sobre o uso ético da inteligência artificial na ciência
A Inteligência Artificial Generativa (IAG) já se tornou parte integrante do cotidiano, com ferramentas como ChatGPT, Claude, Gemini e Deep Seek sendo amplamente utilizadas em aplicativos e plataformas de busca. Apesar de sua utilidade, muitos acadêmicos ainda expressam insegurança em relação ao uso dessas tecnologias, especialmente devido ao risco de exposição de dados de pesquisa a empresas estrangeiras. Isso levanta preocupações sobre a privacidade e a possibilidade de que informações inéditas sejam incorporadas em modelos de IA, sem o devido crédito aos autores.
Outro aspecto crítico é o custo ambiental associado à operação de grandes servidores que suportam essas tecnologias. O consumo elevado de energia e água para refrigeração é uma questão que precisa ser mais discutida, especialmente em um contexto acadêmico que já se preocupa com a sustentabilidade. A Deep Seek, por sua vez, apresentou um modelo que promete custos de treinamento e uso significativamente menores, o que pode impactar positivamente o mercado.
Além disso, as chamadas “alucinações” da IA, que geram informações falsas ou referências inexistentes, podem comprometer a credibilidade de pesquisas. A falta de supervisão e letramento em IAG por parte de pesquisadores pode resultar em erros graves, especialmente se houver confiança excessiva nas respostas geradas. Apesar dos riscos, a integração da IA em ferramentas como Microsoft Office e Google Docs facilita processos acadêmicos, tornando-os mais ágeis.
Para abordar essas preocupações, foi lançado o guia “Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa”, que visa orientar a comunidade científica brasileira. O material discute princípios éticos e oferece orientações práticas para o uso da IAG em diferentes etapas da pesquisa. O guia enfatiza a importância de uma abordagem crítica e cautelosa, sugerindo que os pesquisadores avaliem cuidadosamente os benefícios e riscos antes de utilizar essas tecnologias, além de exigir maior transparência das empresas responsáveis.
Perguntas Relacionadas
Comentários
Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.