Em Alta NotíciasPessoasAcontecimentos internacionaisConflitosPolítica

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?

Novo padrão ACE pode revolucionar IA em chips x86 com apoio de AMD e Intel

ACE, nova arquitetura de aceleração de matrizes para x86, promete maior densidade computacional e desempenho em IA, com apoio de AMD e Intel

Créditos: Wallpaper.com (editada)
0:00
Carregando...
0:00
  • ACE, Arquitetura Padrão de Aceleração de Matrizes para x86, é proposta pela AMD e Intel para acelerar a multiplicação de matrizes em IA.
  • O ACE funciona como extensão do conjunto AVX10 e traz a operação de produto externo, oferecendo densidade computacional 16x maior que uma multiplicação e acumulação equivalente, com os mesmos vetores de entrada.
  • A arquitetura passa a suportar formatos de dados de IA como INT8, BF16, OCP FP8, OCP MXFP8 e OCP MXINT8.
  • O white paper, publicado por AMD e Intel, detalha recursos do ACE e integrações previstas com bibliotecas e frameworks, incluindo NumPy, SciPy, PyTorch e TensorFlow.
  • A parceria entre AMD e Intel, anunciada via Grupo Consultivo do Ecossistema x86, visa tornar o x86 mais acessível, escalável e compatível com requisitos futuros.

A ACE, Arquitetura Padrão de Aceleração de Matrizes para x86, foi apresentada para melhorar o desempenho em IA em chips da família x86. O foco está na multiplicação de matrizes, núcleo das redes neurais e modelos de aprendizado de máquina, buscando maior eficiência energética e escalabilidade.

A AMD e a Intel divulgam o ACE no contexto de uma parceria que já envolve o Grupo Consultivo do Ecossistema x86. O objetivo é padronizar recursos para tornar o x86 mais acessível e compatível com futuras demandas tecnológicas, mantendo a arquitetura competitiva.

No white paper conjunto, as empresas descrevem formatos nativos de dados para IA, como INT8 e BF16, entre outros. Também é destacada a aceleração de matrizes por meio de operações de produto externo, compatíveis com AVX10.

A proposta enfatiza que a operação de produto externo ACE oferece maior densidade computacional, mantendo o mesmo volume de vetores de entrada que a multiplicação AVX10. A extensão já avança para habilitação por software.

Diversas integrações já vislumbradas incluem bibliotecas de aprendizado profundo e HPC, além de compatibilidades com frameworks populares. Entre eles, GEMMs de baixa precisão e primitivas para LLMs aparecem como alvos.

A parceria entre AMD e Intel é vista como um impulso para o ecossistema x86, segundo declarações de mercado. Analistas apontam que o ACE pode facilitar a adoção de IA em novos chips x86, mantendo a arquitetura relevante diante de rivais.

Detalhes técnicos

O ACE suporta formatos como INT8, OCP FP8, OCP MXFP8, OCP MXINT8 e BF16, ampliando a gama de dados compatíveis com IA. A proposta também inclui a performance de operações de produto externo associadas a AVX10.

A extensão está em fase de habilitação por software, com planos de integração em bibliotecas e frameworks amplamente usados. A expectativa é facilitar a adoção por desenvolvedores e equipes de pesquisa.

Comentários 0

Entre na conversa da comunidade

Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais