Asteras Labs divulga 'Série Scorpio X'…… Reduzindo gargalos de conexão de centros de dados de IA

Um dos maiores desafios dos centros de dados de IA é a “conexão”. Se houver atraso na transmissão de dados entre os semicondutores, os caros aceleradores de IA ficarão ociosos esperando. Para isso, a Astera Labs lançou uma nova série de produtos de switches para reduzir esse atraso.

A empresa de chips de rede Astera Labs anunciou o lançamento do mais recente switch de estrutura inteligente “Série Scorpio X”. A empresa afirma que esse produto é o maior switch de estrutura de “semântica de memória” aberto do setor. Explicaram que o produto se concentra em ajudar operadores de centros de dados de grande escala a expandir recursos de computação ao mesmo tempo em que reduzem problemas de latência.

Com o lançamento, a linha de switches de estrutura PCIe “Série Scorpio P” também foi expandida. A nova série P oferece várias configurações, de 32 a 320 canais. Isso fornece mais opções para projetistas de centros de dados que precisam transmitir grandes volumes de dados de forma eficiente entre clusters de processadores de IA.

Na era de IA de grande escala, o gargalo não é a GPU, mas a transmissão de dados

A Astera Labs acredita que, na expansão de sistemas de IA, o problema central não é mais apenas o desempenho do chip, mas a eficiência da conexão entre chips. Modelos de linguagem de grande porte recentes estão se tornando extremamente grandes, com trilhões de parâmetros, tornando difícil colocar todos os cálculos em um único rack de servidor. No final, é necessário integrar centenas ou milhares de GPUs em um grande cluster para operá-las.

O problema é que, nesse processo, os dados vão e voltam continuamente entre os chips, causando congestionamento. Quando os dados necessários aguardam a chegada de outras partes, a GPU fica ociosa. Considerando que o custo operacional por hora de um cluster de IA pode chegar a milhares de dólares, ou milhões de won coreanos, esse tempo de espera reduz significativamente a lucratividade e eficiência do centro de dados.

Acesso à estrutura como acesso à “memória”… redução de latência, aumento de eficiência de processamento

A principal característica do produto “Switch de Estrutura Inteligente Scorpio X de 320 canais” é o redesenho da interação entre switch e chips. O produto é baseado na arquitetura de “semântica de memória”, permitindo que GPUs e outros aceleradores de IA acessem recursos distribuídos por toda a estrutura por meio de operações simples de carregamento/armazenamento. Em resumo, é uma estrutura que permite que recursos remotos sejam acessados como memória local.

Assim, toda a estrutura funciona como um pool de memória unificado. Espera-se que isso reduza o overhead causado pela conversão de pacotes de dados tradicionais, diminuindo a latência. Para centros de dados de IA, isso significa uma maior capacidade de processar mais tarefas com os mesmos recursos de computação.

Além disso, o produto também utiliza as tecnologias proprietárias da Astera Labs, “Hypercast” e “In-Network Compute”. Trata-se de uma estrutura onde o switch não apenas transmite dados, mas também executa parte do processamento diretamente. Especificamente, operações de agregação ou distribuição de dados podem ser realizadas na camada de rede. A empresa explica que a velocidade dessas operações pode ser o dobro do que antes. Isso pode impactar diretamente a “economia de tokens” das cargas de trabalho de IA, ou seja, a eficiência de processamento por unidade de custo.

Design de alta densidade de 320 canais substitui switches tradicionais… também suporta padrões abertos

Outra grande vantagem da Série Scorpio X é seu design de “alto grau de base”. Ela oferece uma conexão de 320 canais baseada no PCIe 6 em um único chip, podendo substituir vários switches tradicionais de centros de dados. Isso simplifica a estrutura da rede e reduz a distância física que os dados precisam percorrer, diminuindo a complexidade do sistema como um todo.

A Série Scorpio P, expandida, complementa a série X. A Astera Labs afirma que esses produtos visam suportar conjuntamente a construção de redes front-end e sistemas de computação de IA. A empresa enfatiza que eles suportam não apenas padrões abertos, mas também protocolos específicos de plataformas como NVLink Fusion da NVIDIA, UALink, entre outros, possibilitando uma estrutura de rede aplicável a diversos processadores de IA.

O CEO Jitendra Mohan afirmou: “Modelos de ponta que lideram as aplicações mais exigentes de IA hoje precisam de uma infraestrutura de conexão que acompanhe o desempenho de seus aceleradores.” Isso significa que, para o setor de IA continuar evoluindo, é necessário evitar gargalos na conexão entre chips.

O lançamento da Astera Labs indica que o foco da competição em IA está mudando rapidamente do desempenho do semicondutor para a estrutura de conexão do sistema como um todo. No futuro, nos centros de dados de IA, além de chips mais rápidos, a integração eficiente desses chips provavelmente se tornará uma vantagem competitiva central.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar