Compartilhar:
em 30/05/2024
Confrontando nvlink?Gigantes de tecnologia como Intel, AMD, Microsoft e Broadcom formam ualink
Oito gigantes da tecnologia, incluindo Intel, Google, Microsoft e Meta, estão estabelecendo um novo grupo de indústria chamado Ualink Promotion Group para orientar o desenvolvimento de componentes que conectam chips de acelerador de IA nos data centers.
A equipe de promoção do UALink foi anunciada para ser estabelecida na quinta -feira, e seus membros também incluem AMD, HP Enterprise, Broadcom e Cisco.O grupo propôs um novo padrão do setor para conectar um número crescente de chips de acelerador de IA em servidores.Em um sentido amplo, um acelerador de IA é um chip projetado de uma GPU para uma solução personalizada para acelerar o treinamento, o ajuste fino e a operação dos modelos de IA.
"O setor precisa de um padrão aberto que possa ser rapidamente impulsionado, permitindo que várias empresas agregam valor a todo o ecossistema em um formato aberto"."O setor precisa de um padrão que permita que a inovação ocorra em ritmo acelerado sem ser restringido por uma única empresa", disse Forrest Norrod, gerente geral da AMD Data Center Solutions, em um briefing na quarta -feira
A primeira versão do padrão proposto, Ualink 1.0 , até 1024 aceleradores de IA, será conectado apenas em um único pod - GPU.(O grupo define o POD como um ou vários racks em um servidor.) O UALink 1.0 é baseado em "padrões abertos" e inclui a arquitetura infinita da AMD.Ele permitirá o carregamento direto e o armazenamento de memória adicional entre os aceleradores de IA e melhorará a velocidade geral e reduzirá a latência de transmissão de dados em comparação com as especificações de interconexão existentes.
O grupo afirmou que criará uma aliança, a Ualink Alliance, no terceiro trimestre para supervisionar o desenvolvimento futuro dos padrões Ualink.O UALink 1.0 será fornecido às empresas que ingressam na aliança durante o mesmo período, com uma especificação de atualização de largura de banda mais alta para o UALink 1.1.Está planejado para ser lançado no quarto trimestre de 2024.
O primeiro lote de produtos Ualink será lançado "nos próximos anos", disse Norrod.
A NVIDIA, o maior fabricante de acelerador de IA até o momento, com uma participação de mercado estimada de 80% a 95%, está claramente ausente da lista de membros do grupo.Nvidia se recusou a comentar sobre isso.Mas não é difícil ver por que esse fabricante de chips não está interessado em apoiar as especificações com base na tecnologia dos concorrentes.
Em primeiro lugar, a NVIDIA fornece sua própria tecnologia de interconexão proprietária para GPUs em seus servidores de data center.A empresa pode não estar disposta a apoiar padrões com base na tecnologia concorrente.
Então vem o fato de a NVIDIA operar a partir de uma posição de imensa força e influência.
No trimestre fiscal mais recente da NVIDIA (primeiro trimestre de 2025), as vendas de data center, incluindo suas vendas de chips de IA, aumentaram mais de 400% em comparação com o mesmo período do ano passado.Se a Nvidia continuar sua atual trajetória de desenvolvimento, ela superará a Apple em algum momento deste ano para se tornar a empresa mais valiosa do mundo.
Portanto, em termos simples, se a NVIDIA não quiser participar, não precisará participar.
Quanto ao Amazon Web Services (AWS), que é a única gigante da nuvem pública que não contribuiu para o UALink, pode estar em um modo de espera e ver, pois está reduzindo seus vários esforços de hardware do acelerador interno.Também pode ser a AWS, contando com seu controle sobre o mercado de serviços em nuvem e não vendo nenhum significado estratégico na oposição da NVIDIA, o que forneceu a maior parte de suas GPUs a seus clientes.
A AWS não respondeu à solicitação de comentários da TechCrunch.
De fato, os maiores beneficiários do Ualink - além da AMD e da Intel - parecem ser a Microsoft, Meta e Google, que gastaram bilhões de dólares para comprar as GPUs da NVIDIA para dirigir suas nuvens e treinar seus modelos crescentes de IA.Todo mundo quer se livrar de um fornecedor que considera excessivamente dominante no ecossistema de hardware da AI.
O Google possui chips personalizados, TPU e axion para treinamento e execução de modelos de IA.A Amazon tem várias famílias de chips de IA.A Microsoft ingressou na competição entre Maia e Cobalt no ano passado.A Meta está melhorando sua série de acelerador.
Enquanto isso, a Microsoft e seu parceiro próximo o Openai planejam gastar pelo menos US $ 100 bilhões em um supercomputador para treinar modelos de IA, que serão equipados com futuros chips de cobalto e maia.Esses chips precisarão de algo para conectá -los - talvez seja Ualink.