24 de jan 2025
DeepSeek desafia a liderança dos EUA com modelo de IA acessível e eficiente
A DeepSeek, laboratório chinês, lançou o modelo de linguagem R1, superando concorrentes. O modelo foi desenvolvido com um orçamento de apenas $6 milhões, desafiando gigantes. R1 é 'open weight', permitindo que pesquisadores o estudem e aprimorem. O avanço da DeepSeek levanta preocupações sobre a liderança dos EUA em IA. A eficiência do R1 pode revolucionar a acessibilidade na pesquisa em IA.
Foto: Reprodução
Ouvir a notícia:
DeepSeek desafia a liderança dos EUA com modelo de IA acessível e eficiente
Ouvir a notícia
DeepSeek desafia a liderança dos EUA com modelo de IA acessível e eficiente - DeepSeek desafia a liderança dos EUA com modelo de IA acessível e eficiente
Um laboratório de inteligência artificial pouco conhecido na China, chamado DeepSeek, gerou preocupação no Vale do Silício ao lançar modelos de IA que superam os melhores dos Estados Unidos, mesmo sendo desenvolvidos com um orçamento reduzido e chips menos potentes. Em dezembro, a DeepSeek apresentou um modelo de linguagem de código aberto que levou apenas dois meses e menos de R$ 30 milhões para ser criado, utilizando chips H800 da Nvidia. Esses avanços levantaram questões sobre a liderança global dos EUA em inteligência artificial e a eficácia dos investimentos massivos em tecnologia.
Em testes de benchmark realizados por terceiros, o modelo da DeepSeek superou o Llama 3.1 da Meta, o GPT-4o da OpenAI e o Claude Sonnet 3.5 da Anthropic em precisão em tarefas que vão de resolução de problemas complexos a matemática e programação. Na segunda-feira, a empresa lançou o r1, um modelo de raciocínio que também se destacou em muitos desses testes, superando o último modelo da OpenAI, o o1. O CEO da Microsoft, Satya Nadella, elogiou o modelo, afirmando que os desenvolvimentos vindos da China devem ser levados a sério.
A DeepSeek conseguiu contornar as restrições severas de semicondutores impostas pelo governo dos EUA, que limitam o acesso da China aos chips mais poderosos. Especialistas sugerem que a empresa pode ter encontrado maneiras de driblar as regras ou que as restrições não são tão eficazes quanto se pensava. O modelo utiliza um processo chamado destilação, onde um modelo maior ajuda a otimizar um modelo menor, tornando o desenvolvimento mais econômico.
Além da DeepSeek, outras empresas chinesas também estão avançando. A startup 01.ai, liderada pelo pesquisador Kai-Fu Lee, foi treinada com apenas R$ 15 milhões. A empresa-mãe do TikTok, ByteDance, também anunciou melhorias em seu modelo que superam o o1 em testes. A eficiência e a inovação resultantes das restrições têm levado a um desenvolvimento mais ágil e econômico, como destacou o CEO da Perplexity, Aravind Srinivas.
Perguntas Relacionadas
Comentários
Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.