14 de jun 2025

IAs imitam erros humanos e desafiam sistemas de detecção, alerta CEO
Modelos de IA como GPT 4 e Claude estão se tornando indistinguíveis da escrita humana, levantando preocupações sobre educação e integridade acadêmica.
Uso de IA foi apontado em obras de Mario Quintana, Drummond, Getúlio Vargas e Tom Jobim (Foto: Reprodução)
Ouvir a notícia:
IAs imitam erros humanos e desafiam sistemas de detecção, alerta CEO
Ouvir a notícia
IAs imitam erros humanos e desafiam sistemas de detecção, alerta CEO - IAs imitam erros humanos e desafiam sistemas de detecção, alerta CEO
Na crescente disputa entre ferramentas de Inteligência Artificial (IA) que geram textos e aquelas que tentam detectá-los, os algoritmos estão se destacando. Beerud Sheth, CEO de uma empresa de tecnologia, alerta que modelos como GPT-4 e Claude estão se tornando quase indistinguíveis da escrita humana, o que pode afetar a educação e a integridade acadêmica.
Sheth destaca que essas tecnologias agora conseguem imitar erros humanos e ajustar seu estilo de escrita, tornando a distinção entre o natural e o artificial cada vez mais difícil. Em testes realizados pelo InfoMoney, textos clássicos, como letras de Tom Jobim e a carta testamento de Getúlio Vargas, foram erroneamente classificados como produções de IA. O especialista explica que as ferramentas de detecção analisam padrões de repetição e estrutura, mas os modelos mais avançados estão se aprimorando em replicar a imprevisibilidade da escrita humana.
Impactos na Educação
Com o avanço das ferramentas de IA, surgem preocupações sobre seu impacto na educação e no jornalismo. Sheth afirma que o uso indiscriminado dessas tecnologias pode comprometer habilidades essenciais, como o pensamento crítico. Ele observa que, ao gerar redações inteiras com apenas algumas sugestões, os alunos perdem a oportunidade de desenvolver sua própria voz analítica e formular argumentos complexos.
Além disso, o CEO alerta para uma possível crise de integridade acadêmica. A premissa de que os trabalhos submetidos refletem o esforço do aluno pode ser comprometida, levando a uma desvalorização dos diplomas. Sheth também menciona as implicações preocupantes para a pesquisa acadêmica, onde a infiltração de conteúdo gerado por IA pode criar uma base de conhecimento falha.
Limitações das Ferramentas de Detecção
Embora existam iniciativas como o SynthID, do Google, que insere marcas d'água invisíveis em textos gerados por IA, Sheth aponta suas limitações. Essas marcas podem ser facilmente removidas e modelos de código aberto não possuem qualquer tipo de assinatura. Para ele, o uso de detectores deve ser considerado apenas um ponto de partida, funcionando como detectores de fumaça que sugerem a necessidade de investigação mais aprofundada.
Perguntas Relacionadas
Comentários
Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.