Em Alta NotíciasConflitoseconomiaFutebolrelações internacionais

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?
Entrar

Meta enfrenta críticas após lançamento decepcionante dos novos modelos Llama 4

Meta lança Llama 4, mas desempenho decepcionante em codificação gera críticas e levanta dúvidas sobre benchmarks. A nova abordagem de "bondade" na IA também é discutida.

Telinha
Por Revisado por: Time de Jornalismo Portal Tela
0:00 0:00

A Meta lançou os modelos Llama 4, mas a recepção foi misturada. A empresa usou uma nova técnica chamada mistura de especialistas, que ativa apenas parte dos parâmetros do modelo para cada tarefa, permitindo que ele tenha muitos parâmetros sem exigir tanto poder computacional. No entanto, muitos usuários ficaram decepcionados com o desempenho, especialmente em tarefas de programação, e alguns disseram que o Llama 4 foi pior do que modelos menores, como o Gemma 3 27B.

Além disso, surgiram dúvidas sobre a veracidade das alegações de desempenho da Meta. A empresa mostrou resultados impressionantes para um modelo chamado Llama 4 Behemoth, que ainda não está disponível, o que gerou desconfiança e acusações de propaganda enganosa. Também foram mencionados problemas técnicos, como limitações de hardware que dificultam o uso do modelo, que supostamente pode lidar com até dez milhões de tokens, mas na prática, esse número é muito menor.

A Meta enfrenta forte concorrência de modelos menores e mais eficientes, que têm se destacado no mercado. A estratégia da empresa, que se concentra em modelos muito grandes, parece não atender às necessidades de quem busca soluções mais acessíveis. Além disso, as novas restrições de licença afastaram parte da comunidade de código aberto, complicando ainda mais a situação da Meta.

A Meta lançou recentemente os modelos Llama 4, gerando uma recepção mista. A empresa introduziu uma abordagem inovadora chamada mistura de especialistas (MoE), que ativa apenas uma fração dos parâmetros do modelo para cada entrada, permitindo um grande número total de parâmetros com requisitos computacionais reduzidos. No entanto, muitos usuários expressaram decepção significativa com o desempenho dos novos modelos, especialmente em tarefas de codificação. Um usuário no Reddit comentou que o Llama 4 teve um desempenho pior que o modelo Gemma 3 27B, surpreendendo pela sua baixa eficácia.

Além disso, surgiram controvérsias em relação às alegações de benchmark da Meta. A empresa apresentou resultados impressionantes para o modelo Llama 4 Behemoth, que ainda está em treinamento e não está disponível publicamente. Essa discrepância gerou desconfiança e acusações de marketing enganoso. Um analista destacou que os resultados apresentados eram falsos, o que prejudicou a confiança na comunidade da Meta.

Os desafios técnicos também foram mencionados, como as limitações de hardware que restringem a utilização prática do modelo, que possui um contexto de até dez milhões de tokens. Na prática, provedores limitam esse número a cerca de 128 mil a 328 mil tokens. A arquitetura MoE também apresenta complexidades que podem afetar a consistência do desempenho, especialmente se não forem ajustadas corretamente.

A Meta enfrenta uma concorrência crescente de modelos menores e mais eficientes, como os da DeepSeek e Gemma, que têm se destacado no espaço de código aberto. A estratégia da Meta, focada em modelos ultra-grandes, parece não atender às necessidades da comunidade, que busca implementações mais acessíveis e eficientes. A empresa também impôs restrições de licença que afastaram parte da comunidade de código aberto, complicando ainda mais sua posição no mercado.

Relacionados:

Comentários 0

Entre na conversa da comunidade
Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais