07 de abr 2025
Meta enfrenta críticas após lançamento decepcionante dos novos modelos Llama 4
Meta lança Llama 4, mas desempenho decepcionante em codificação gera críticas e levanta dúvidas sobre benchmarks. A nova abordagem de "bondade" na IA também é discutida.
Foto de um Llama em um ambiente natural. (Foto: Reprodução)
Ouvir a notícia:
Meta enfrenta críticas após lançamento decepcionante dos novos modelos Llama 4
Ouvir a notícia
Meta enfrenta críticas após lançamento decepcionante dos novos modelos Llama 4 - Meta enfrenta críticas após lançamento decepcionante dos novos modelos Llama 4
A Meta lançou recentemente os modelos Llama 4, gerando uma recepção mista. A empresa introduziu uma abordagem inovadora chamada mistura de especialistas (MoE), que ativa apenas uma fração dos parâmetros do modelo para cada entrada, permitindo um grande número total de parâmetros com requisitos computacionais reduzidos. No entanto, muitos usuários expressaram decepção significativa com o desempenho dos novos modelos, especialmente em tarefas de codificação. Um usuário no Reddit comentou que o Llama 4 teve um desempenho pior que o modelo Gemma 3 27B, surpreendendo pela sua baixa eficácia.
Além disso, surgiram controvérsias em relação às alegações de benchmark da Meta. A empresa apresentou resultados impressionantes para o modelo Llama 4 Behemoth, que ainda está em treinamento e não está disponível publicamente. Essa discrepância gerou desconfiança e acusações de marketing enganoso. Um analista destacou que os resultados apresentados eram falsos, o que prejudicou a confiança na comunidade da Meta.
Os desafios técnicos também foram mencionados, como as limitações de hardware que restringem a utilização prática do modelo, que possui um contexto de até dez milhões de tokens. Na prática, provedores limitam esse número a cerca de 128 mil a 328 mil tokens. A arquitetura MoE também apresenta complexidades que podem afetar a consistência do desempenho, especialmente se não forem ajustadas corretamente.
A Meta enfrenta uma concorrência crescente de modelos menores e mais eficientes, como os da DeepSeek e Gemma, que têm se destacado no espaço de código aberto. A estratégia da Meta, focada em modelos ultra-grandes, parece não atender às necessidades da comunidade, que busca implementações mais acessíveis e eficientes. A empresa também impôs restrições de licença que afastaram parte da comunidade de código aberto, complicando ainda mais sua posição no mercado.
Perguntas Relacionadas
Comentários
Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.