31 de jan 2025
DeepSeek pode não ser a solução energética que se esperava para a inteligência artificial
O modelo de IA DeepSeek, da China, gera debates sobre eficiência energética. Análises revelam que DeepSeek consome até 87% mais energia que concorrentes. A técnica de "chain of thought" aumenta o consumo energético em respostas. Especialistas alertam para a possível adoção indiscriminada de modelos intensivos. O futuro da IA pode ser impactado por custos energéticos e econômicos.
"Um logotipo brilhante do Deepseek - Sarah Rogers / MITTR (Foto: Getty)"
Ouvir a notícia:
DeepSeek pode não ser a solução energética que se esperava para a inteligência artificial
Ouvir a notícia
DeepSeek pode não ser a solução energética que se esperava para a inteligência artificial - DeepSeek pode não ser a solução energética que se esperava para a inteligência artificial
Desde que o modelo de inteligência artificial chinês DeepSeek ganhou notoriedade, diversas narrativas surgiram, algumas com precisão questionável. Entre elas, destaca-se a ideia de que o modelo poderia coletar dados pessoais e que sua abordagem mais eficiente poderia reduzir o consumo de energia da IA. No entanto, novos dados indicam que, na verdade, o DeepSeek pode ser mais intensivo em energia ao gerar respostas do que modelos equivalentes, como os da Meta. Isso sugere que a economia de energia durante o treinamento pode ser compensada pelo consumo elevado durante a inferência, especialmente devido ao comprimento das respostas geradas.
O ciclo de vida de um modelo de IA envolve duas fases principais: treinamento e inferência. Durante o treinamento, que pode durar meses, o modelo aprende com os dados, enquanto a inferência ocorre sempre que um usuário faz uma pergunta. DeepSeek aprimorou técnicas como a "mistura de especialistas", onde apenas uma parte dos parâmetros do modelo é ativada durante o treinamento, e a aprendizagem por reforço, que melhora a precisão das respostas. Apesar dessas inovações, especialistas como Dario Amodei, cofundador da Anthropic, afirmam que a busca por sistemas mais inteligentes pode levar as empresas a gastar mais em treinamento, resultando em maior consumo energético.
DeepSeek é projetado como um modelo de raciocínio, utilizando uma técnica chamada "cadeia de pensamento", que permite ao modelo decompor tarefas complexas em partes menores. Isso resulta em respostas mais elaboradas, mas também em um consumo energético elevado. Testes iniciais indicam que o modelo pode consumir até 87% mais energia do que modelos tradicionais ao gerar respostas mais longas. Por exemplo, uma resposta de mil palavras exigiu 17.800 joules, comparável ao consumo de um vídeo de dez minutos no YouTube.
A crescente popularidade de modelos como o DeepSeek levanta preocupações sobre o aumento do uso de energia em larga escala. Especialistas alertam que, se a abordagem de raciocínio em cadeia for amplamente adotada, o consumo de energia na inferência pode disparar. A transição de IA extrativa para generativa já resultou em um aumento significativo no uso de energia, e a pressão para integrar modelos de raciocínio pode levar a um cenário semelhante. A análise dos custos energéticos desses novos modelos ainda é incipiente, mas a viabilidade econômica das inovações dependerá de um equilíbrio entre eficiência e custos operacionais.
Perguntas Relacionadas
Comentários
Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.