UALink, O Futuro dos Chips de IA em Data Centers
Recentemente, um grupo de gigantes da tecnologia se uniu para formar um novo consórcio industrial com o objetivo de guiar o desenvolvimento dos componentes que conectam chips aceleradores de IA em data centers. O Ultra Accelerator Link (UALink) Promoter Group, que inclui nomes como Intel, Google, Microsoft, Meta e outros pesos pesados da tecnologia, promete revolucionar o futuro dos chips de IA. Este artigo explora o propósito, os membros, os benefícios e os desafios dessa nova iniciativa, intitulada UALink, o Futuro dos Chips de IA em Data Centers.

Anunciado na última quinta-feira, o UALink Promoter Group também conta com a participação da AMD, Hewlett Packard Enterprise, Broadcom e Cisco, mas notavelmente ainda não inclui a Arm.
O grupo está propondo um novo padrão industrial para conectar os chips aceleradores de IA encontrados em um número crescente de servidores. Amplamente definidos, os aceleradores de IA são chips que variam desde GPUs até soluções personalizadas projetadas para acelerar o treinamento, ajuste fino e execução de modelos de IA.
“A indústria precisa de um padrão aberto que possa ser avançado muito rapidamente, em um formato aberto que permita a várias empresas agregar valor ao ecossistema como um todo”
“A indústria precisa de um padrão que permita que a inovação prossiga em um ritmo rápido, sem ser limitada por qualquer empresa.”
Disse Forrest Norrod, gerente geral de soluções de data center da AMD, a repórteres em uma coletiva na quarta-feira.
A Primeira Versão do Padrão UALink
A versão inicial do padrão proposto, UALink 1.0, conectará até 1.024 aceleradores de IA — inicialmente apenas GPUs — em um único “pod” de computação. O grupo define um pod como um ou vários racks em um servidor.
Baseado em “padrões abertos” incluindo o Infinity Fabric da AMD, o UALink 1.0 permitirá cargas e armazenamentos diretos entre a memória conectada aos aceleradores de IA, aumentando a velocidade e reduzindo a latência de transferência de dados em comparação com as especificações de interconexão existentes.

O grupo também planeja criar um consórcio, o UALink Consortium, no terceiro trimestre deste ano para supervisionar o desenvolvimento da especificação UALink no futuro. O UALink 1.0 estará disponível aproximadamente ao mesmo tempo para as empresas que aderirem ao consórcio, com uma especificação atualizada de maior largura de banda, UALink 1.1, prevista para chegar no quarto trimestre de 2024. Segundo Norrod, os primeiros produtos UALink serão lançados “nos próximos dois anos”.
A Notável Ausência da Nvidia

Um dos detalhes mais surpreendentes dessa iniciativa é a ausência da Nvidia, a maior produtora de aceleradores de IA do mercado, com uma estimativa de 80% a 95% de participação.
A Nvidia, que não quis comentar sobre essa história, oferece sua própria tecnologia de interconexão proprietária para conectar GPUs dentro de um servidor de data center, o que pode explicar sua falta de interesse em apoiar um padrão baseado em tecnologias rivais.

Além disso, a Nvidia opera a partir de uma posição de enorme força e influência. No trimestre fiscal mais recente da empresa (Q1 2025), as vendas de data center da Nvidia, que incluem vendas de seus chips de IA, aumentaram mais de 400% em relação ao mesmo período do ano anterior.
Se a Nvidia continuar em sua trajetória atual, está prestes a superar a Apple como a segunda empresa mais valiosa do mundo em algum momento deste ano. Simplificando, a Nvidia não precisa participar se não quiser.
A Posição da AWS
Outra ausência notável é a da Amazon Web Services (AWS), o único gigante da nuvem pública que não está contribuindo para o UALink. A AWS pode estar em modo de “esperar para ver” enquanto avança com seus diversos esforços internos de hardware acelerador.

Também pode ser que a AWS, com um domínio no mercado de serviços em nuvem, não veja muito sentido estratégico em se opor à Nvidia, que fornece grande parte das GPUs que serve aos clientes.
Beneficiários do UALink

Os maiores beneficiários do UALink, além da AMD e Intel, parecem ser Microsoft, Meta e Google. Essas empresas combinadas gastaram bilhões de dólares em GPUs da Nvidia para alimentar suas nuvens e treinar seus modelos de IA em constante crescimento. Todas estão procurando se libertar de um fornecedor que veem como preocupantemente dominante no ecossistema de hardware de IA.
Em um relatório recente, a Gartner estima que o valor dos aceleradores de IA usados em servidores totalizará US$ 21 bilhões este ano, aumentando para US$ 33 bilhões até 2028. A receita de chips de IA deve atingir US$ 33,4 bilhões até 2025, segundo projeções da Gartner.
Inovações Internas das Gigantes da Tecnologia
O Google possui chips personalizados para treinamento e execução de modelos de IA, conhecidos como TPUs e Axion. A Amazon possui várias famílias de chips de IA. A Microsoft entrou na disputa no ano passado com os chips Maia e Cobalt. E a Meta está refinando sua própria linha de aceleradores.
Além disso, a Microsoft e sua colaboradora próxima, OpenAI, planejam gastar pelo menos US$ 100 bilhões em um supercomputador para treinar modelos de IA que serão equipados com versões futuras dos chips Cobalt e Maia. Esses chips precisarão de algo para conectá-los, e talvez essa conexão seja feita pelo UALink.
O UALink promete ser um divisor de águas para o futuro dos chips de IA em data centers. Com a união de gigantes da tecnologia e a proposta de um padrão aberto, a iniciativa visa acelerar a inovação e oferecer soluções mais eficientes e rápidas para o processamento de IA.
Embora enfrentem desafios como a ausência da Nvidia e a necessidade de convencer outros grandes players do mercado, os membros do UALink Promoter Group estão confiantes de que esta colaboração trará benefícios significativos para a indústria de tecnologia.