Tecnologia

Estudo revela potencial revolucionário do uso de dados sintéticos na inteligência artificial

Em janeiro de 2025, Donald Trump anunciou o Stargate Project, com US$ 500 bilhões. A DeepSeek lançou um modelo de linguagem que reduz custos e poder computacional. O estudo da Universidade de Freiburg apresenta o modelo TabPFN, usando dados sintéticos. TabPFN faz previsões precisas com pequenos conjuntos de dados, desafiando o status quo. A nova ordem de Trump ignora a segurança em IA, levantando preocupações globais.

"Dados sintéticos estão sendo usados para treinar modelos de IA que podem analisar dados tabulados, como informações financeiras. (Foto: Kazuhiro Nogi/AFP/Getty)"

"Dados sintéticos estão sendo usados para treinar modelos de IA que podem analisar dados tabulados, como informações financeiras. (Foto: Kazuhiro Nogi/AFP/Getty)"

Ouvir a notícia

Estudo revela potencial revolucionário do uso de dados sintéticos na inteligência artificial - Estudo revela potencial revolucionário do uso de dados sintéticos na inteligência artificial

0:000:00

Em 2025, a inteligência artificial (IA) está se consolidando como um tema central, especialmente após o anúncio do Stargate Project pelo presidente dos Estados Unidos, Donald Trump, que visa investir US$ 500 bilhões em infraestrutura de IA. No entanto, a empresa chinesa DeepSeek apresentou um modelo de linguagem, o DeepSeek-R1, que promete realizar tarefas complexas com menor custo e poder computacional, desafiando a necessidade de investimentos tão altos.

Um estudo publicado na revista Nature destaca a pesquisa de cientistas da Universidade de Freiburg, que desenvolveram o modelo TabPFN. Este modelo é capaz de fazer previsões a partir de dados tabulados, como os encontrados em planilhas, utilizando dados sintéticos — dados gerados aleatoriamente que imitam propriedades estatísticas de dados reais. O TabPFN demonstrou precisão em suas previsões, mesmo sem ter sido treinado com dados do mundo real.

Entretanto, o uso de dados sintéticos não é isento de riscos, como a possibilidade de resultados imprecisos. A replicação de estudos é fundamental para garantir a confiabilidade dos resultados. Apesar disso, a nova ordem executiva de Trump, que não menciona a segurança, pode comprometer os esforços para aumentar a confiança na IA. A colaboração entre o National Institutes of Standards and Technology (NIST) e empresas de IA é essencial para a segurança e a utilização responsável de dados sintéticos.

A pesquisa de Hollman e sua equipe exemplifica como a inovação pode surgir da necessidade. Apesar dos avanços, os modelos de IA, sejam treinados com dados sintéticos ou reais, permanecem como "caixas pretas", dificultando a compreensão dos processos que levam a determinados resultados. À medida que 2025 avança, é crucial não apenas celebrar as inovações, mas também apoiar estudos que busquem entender os mecanismos da IA.

Meu Tela
Descubra mais com asperguntas relacionadas
crie uma conta e explore as notícias de forma gratuita.acessar o meu tela

Perguntas Relacionadas

Participe da comunidadecomentando
Faça o login e comente as notícias de forma totalmente gratuita
No Portal Tela, você pode conferir comentários e opiniões de outros membros da comunidade.acessar o meu tela

Comentários

Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.

Meu Tela

Priorize os conteúdos mais relevantes para você

Experimente o Meu Tela

Crie sua conta e desbloqueie uma experiência personalizada.


No Meu Tela, o conteúdo é definido de acordo com o que é mais relevante para você.

Acessar o Meu Tela