Intel, Google, Microsoft, Meta e outros pesos pesados da tecnologia estão estabelecendo um novo grupo industrial, o Grupo Promotor Ultra Accelerator Link (UALink), para orientar o desenvolvimento dos componentes que ligam chips aceleradores de IA em data centers.
Anunciado na quinta-feira, o Grupo Promotor UALink – que também conta com AMD (mas não Arm), Hewlett Packard Enterprise, Broadcom e Cisco entre seus membros – está propondo um novo padrão da indústria para conectar os chips aceleradores de IA encontrados em um número crescente de servidores. Em termos gerais, os aceleradores de IA são chips que vão desde GPUs até soluções personalizadas para acelerar o treinamento, o ajuste fino e a execução de modelos de IA.
“A indústria precisa de um padrão aberto que possa avançar muito rapidamente, de forma aberta. [format] isso permite que várias empresas agreguem valor ao ecossistema geral”, disse Forrest Norrod, gerente geral de soluções de data center da AMD, a repórteres em um briefing na quarta-feira. “A indústria precisa de um padrão que permita que a inovação prossiga rapidamente, sem restrições de qualquer empresa.”
A primeira versão do padrão proposto, UALink 1.0, conectará até 1.024 aceleradores de IA – apenas GPUs – em um único “pod” de computação. (O grupo define um vagem como um ou vários racks em um servidor.) UALink 1.0, baseado em “padrões abertos” incluindo Tecido Infinity da AMDpermitirá carregamentos e armazenamentos diretos entre a memória anexada aos aceleradores de IA e geralmente aumentará a velocidade enquanto reduz a latência de transferência de dados em comparação com as especificações de interconexão existentes, de acordo com o Grupo Promotor UALink.
O grupo diz que criará um consórcio, o UALink Consortium, no terceiro trimestre para supervisionar o desenvolvimento das especificações UALink daqui para frente. O UALink 1.0 será disponibilizado na mesma época para as empresas que aderirem ao consórcio, com uma especificação atualizada de maior largura de banda, UALink 1.1, prevista para chegar no quarto trimestre de 2024.
Os primeiros produtos UALink serão lançados “nos próximos anos”, disse Norrod.
Claramente ausente da lista de membros do grupo está a Nvidia, que é de longe o maior produtor de aceleradores de IA com um estimado 80% a 95% do mercado. A Nvidia se recusou a comentar esta história. Mas não é difícil entender por que o fabricante de chips não está investindo entusiasticamente no UALink.
Por um lado, a Nvidia oferece sua própria tecnologia de interconexão proprietária para vincular GPUs em um servidor de data center. A empresa provavelmente não está muito interessada em apoiar especificações baseadas em tecnologias rivais.
Depois, há o fato de que a Nvidia está operando em uma posição de enorme força e influência.
No trimestre fiscal mais recente da Nvidia (primeiro trimestre de 2025), as vendas de data centers da empresa, que incluem as vendas de seus chips de IA, aumentaram mais de 400% em relação ao mesmo trimestre do ano anterior. Se Nvidia continuou em sua trajetória atual, deverá ultrapassar a Apple como a segunda empresa mais valiosa do mundo ainda este ano.
Então, resumindo, a Nvidia não precisa jogar bola se não quiser.
Quanto à Amazon Web Services (AWS), a única gigante da nuvem pública que não contribui para o UALink, ela pode estar em um modo “esperar para ver”, enquanto reduz (sem trocadilhos) seus vários esforços internos de hardware acelerador. Também pode ser que a AWS, com domínio no mercado de serviços em nuvem, não veja muito ponto estratégico em se opor à Nvidia, que fornece grande parte das GPUs que serve aos clientes.
A AWS não respondeu ao pedido de comentário do TechCrunch.
Na verdade, os maiores beneficiários do UALink – além da AMD e da Intel – parecem ser a Microsoft, Meta e Google, que juntas gastaram milhares de milhões de dólares em GPUs Nvidia para alimentar as suas nuvens e treinar os seus modelos de IA cada vez maiores. Todos estão tentando se afastar de um fornecedor que consideram preocupantemente dominante no ecossistema de hardware de IA.
O Google possui chips personalizados para treinar e executar modelos de IA, TPU e Áxion. Amazon tem diversos Chip de IA famílias sob seu comando. A Microsoft no ano passado entrou na briga com Maia e Cobalto. E Meta está refinando sua própria programação de aceleradores.
Enquanto isso, a Microsoft e seu colaborador próximo, OpenAI, supostamente planeja gastar pelo menos US$ 100 bilhões em um supercomputador para treinar modelos de IA que serão equipados com versões futuras dos chips Cobalt e Maia. Esses chips precisarão de algo para conectá-los – e talvez seja o UALink.