A Nvidia revelou a plataforma Rubin na CES 2026, combinando seis novos chips numa supercomputador de IA unificado que oferece 5x a capacidade de treino em comparação com a sua linha Blackwell.
A empresa de tecnologia NVIDIA revelou a plataforma Rubin na CES 2026, apresentando um supercomputador de IA unificado construído a partir de seis novos chips que, coletivamente, oferecem cinco vezes a capacidade de treino da série Blackwell. A plataforma foi concebida para estabelecer um novo padrão na construção, implementação e segurança de sistemas de IA em larga escala, ao mesmo tempo que minimiza os custos para apoiar uma adoção mais ampla da tecnologia de IA.
A plataforma Rubin alcança o seu desempenho através de um co-design rigoroso entre os seus seis componentes: a CPU NVIDIA Vera, a GPU NVIDIA Rubin, o Switch NVIDIA NVLink 6, o SuperNIC NVIDIA ConnectX-9, o DPU NVIDIA BlueField-4 e o Switch Ethernet NVIDIA Spectrum-6. Esta abordagem integrada reduz os tempos de treino e diminui os custos por token de inferência.
A Rubin apresenta cinco inovações-chave, incluindo interconexões NVLink de próxima geração, o Transformer Engine, Computing Confidencial, o RAS Engine e a CPU NVIDIA Vera. Estes avanços permitem IA agentic, raciocínio avançado e inferência de modelos de mistura de especialistas (MoE) em larga escala, a custos até dez vezes inferiores por token em comparação com a plataforma Blackwell. O sistema pode treinar modelos MoE com quatro vezes menos GPUs, acelerando ainda mais a adoção de IA.
Espera-se que a plataforma seja implementada por laboratórios de IA líderes, provedores de serviços em nuvem, fabricantes de hardware e startups, incluindo Amazon Web Services (AWS), Anthropic, Black Forest Labs, Cisco, Cohere, CoreWeave, Cursor, Dell Technologies, Google, Harvey, HPE, Lambda, Lenovo, Meta, Microsoft, Mistral AI, Nebius, Nscale, OpenAI, OpenEvidence, Oracle Cloud Infrastructure (OCI), Perplexity, Runway, Supermicro, Thinking Machines Lab e xAI.
Revelação de Armazenamento Nativo de IA e Infraestrutura Definida por Software para Fábricas de IA
A NVIDIA Rubin apresenta um armazenamento nativo de IA e uma infraestrutura segura, definida por software, concebida para suportar cargas de trabalho de IA em larga escala de forma eficiente. A Plataforma de Memória de Contexto de Inferência NVIDIA, alimentada pelo BlueField-4, permite partilhar e reutilizar rapidamente dados de cache de chave-valor, melhorando o throughput e a eficiência energética para aplicações de IA agentic de múltiplas voltas. O BlueField-4 também inclui a Arquitetura Avançada de Recursos Confiáveis e Seguros (ASTRA), fornecendo um ponto de controlo único e confiável para provisão segura e isolamento em ambientes de IA bare-metal e multi-inquilino.
A plataforma é oferecida em várias configurações, incluindo o Vera Rubin NVL72, que integra 72 GPUs Rubin, 36 CPUs Vera, NVLink 6, SuperNICs ConnectX-9 e DPUs BlueField-4, e o HGX Rubin NVL8, ligando oito GPUs Rubin para suportar plataformas de IA generativa baseadas em x86. O NVIDIA DGX SuperPOD serve como arquitetura de referência para a implementação de sistemas Rubin em larga escala, combinando computação, rede e software de gestão.
A próxima geração de redes e armazenamento é fornecida pelas plataformas Ethernet Spectrum-6 e Spectrum-X, que apresentam óticas integradas, tecidos otimizados para IA e comunicação SerDes de alta velocidade de 200G. Estas inovações oferecem maior fiabilidade, eficiência energética e escalabilidade, permitindo que fábricas de IA baseadas em Rubin operem em múltiplos locais como ambientes unificados e suportem infraestruturas futuras de milhões de GPUs.
NVIDIA Rubin em Produção Completa, Pronto para Implementação em Nuvem e Laboratórios de IA
A nova plataforma entrou em produção completa, com sistemas baseados em Rubin previstos para ficarem disponíveis através de parceiros na segunda metade de 2026. Grandes provedores de nuvem, incluindo AWS, Google Cloud, Microsoft e OCI, bem como Parceiros de Nuvem NVIDIA como CoreWeave, Lambda, Nebius e Nscale, estão entre os primeiros a implementar instâncias alimentadas por Rubin. A Microsoft planeia integrar os sistemas de escala rack NVIDIA Vera Rubin NVL72 em centros de dados de IA de próxima geração, incluindo futuros sites de superfábricas Fairwater AI, formando a base para cargas de trabalho avançadas de treino e inferência em empresas, investigação e aplicações de consumo.
A CoreWeave irá incorporar sistemas Rubin na sua plataforma de nuvem de IA, suportando múltiplas arquiteturas e permitindo desempenho otimizado para cargas de trabalho de treino, inferência e IA agentic. A Cisco, Dell, HPE, Lenovo e Supermicro também deverão oferecer servidores baseados em produtos Rubin. Laboratórios de IA líderes, incluindo Anthropic, Cohere, OpenAI, Meta e outros, estão a adotar Rubin para treinar modelos maiores e mais capazes, suportando sistemas multimodais de longo contexto com menor latência e custo em comparação com gerações anteriores de GPUs.
Parceiros de infraestrutura e armazenamento, como IBM, NetApp, Nutanix, Pure Storage, SUSE e VAST Data, estão a colaborar com a NVIDIA no desenvolvimento de plataformas Rubin de próxima geração. Rubin representa a arquitetura de terceira geração da NVIDIA em escala rack, apoiada por mais de 80 parceiros do ecossistema MGX. A Red Hat anunciou uma colaboração expandida para fornecer uma pilha de IA completa otimizada para Rubin, aproveitando o seu portfólio de nuvem híbrida, incluindo Red Hat Enterprise Linux, OpenShift e Red Hat AI, amplamente utilizados por empresas Fortune Global 500.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
A NVIDIA Apresenta o Rubin: Seis Novos Chips Alimentam o Supercomputador de IA de Próxima Geração
Resumido
A Nvidia revelou a plataforma Rubin na CES 2026, combinando seis novos chips numa supercomputador de IA unificado que oferece 5x a capacidade de treino em comparação com a sua linha Blackwell.
A empresa de tecnologia NVIDIA revelou a plataforma Rubin na CES 2026, apresentando um supercomputador de IA unificado construído a partir de seis novos chips que, coletivamente, oferecem cinco vezes a capacidade de treino da série Blackwell. A plataforma foi concebida para estabelecer um novo padrão na construção, implementação e segurança de sistemas de IA em larga escala, ao mesmo tempo que minimiza os custos para apoiar uma adoção mais ampla da tecnologia de IA.
A plataforma Rubin alcança o seu desempenho através de um co-design rigoroso entre os seus seis componentes: a CPU NVIDIA Vera, a GPU NVIDIA Rubin, o Switch NVIDIA NVLink 6, o SuperNIC NVIDIA ConnectX-9, o DPU NVIDIA BlueField-4 e o Switch Ethernet NVIDIA Spectrum-6. Esta abordagem integrada reduz os tempos de treino e diminui os custos por token de inferência.
A Rubin apresenta cinco inovações-chave, incluindo interconexões NVLink de próxima geração, o Transformer Engine, Computing Confidencial, o RAS Engine e a CPU NVIDIA Vera. Estes avanços permitem IA agentic, raciocínio avançado e inferência de modelos de mistura de especialistas (MoE) em larga escala, a custos até dez vezes inferiores por token em comparação com a plataforma Blackwell. O sistema pode treinar modelos MoE com quatro vezes menos GPUs, acelerando ainda mais a adoção de IA.
Espera-se que a plataforma seja implementada por laboratórios de IA líderes, provedores de serviços em nuvem, fabricantes de hardware e startups, incluindo Amazon Web Services (AWS), Anthropic, Black Forest Labs, Cisco, Cohere, CoreWeave, Cursor, Dell Technologies, Google, Harvey, HPE, Lambda, Lenovo, Meta, Microsoft, Mistral AI, Nebius, Nscale, OpenAI, OpenEvidence, Oracle Cloud Infrastructure (OCI), Perplexity, Runway, Supermicro, Thinking Machines Lab e xAI.
Revelação de Armazenamento Nativo de IA e Infraestrutura Definida por Software para Fábricas de IA
A NVIDIA Rubin apresenta um armazenamento nativo de IA e uma infraestrutura segura, definida por software, concebida para suportar cargas de trabalho de IA em larga escala de forma eficiente. A Plataforma de Memória de Contexto de Inferência NVIDIA, alimentada pelo BlueField-4, permite partilhar e reutilizar rapidamente dados de cache de chave-valor, melhorando o throughput e a eficiência energética para aplicações de IA agentic de múltiplas voltas. O BlueField-4 também inclui a Arquitetura Avançada de Recursos Confiáveis e Seguros (ASTRA), fornecendo um ponto de controlo único e confiável para provisão segura e isolamento em ambientes de IA bare-metal e multi-inquilino.
A plataforma é oferecida em várias configurações, incluindo o Vera Rubin NVL72, que integra 72 GPUs Rubin, 36 CPUs Vera, NVLink 6, SuperNICs ConnectX-9 e DPUs BlueField-4, e o HGX Rubin NVL8, ligando oito GPUs Rubin para suportar plataformas de IA generativa baseadas em x86. O NVIDIA DGX SuperPOD serve como arquitetura de referência para a implementação de sistemas Rubin em larga escala, combinando computação, rede e software de gestão.
A próxima geração de redes e armazenamento é fornecida pelas plataformas Ethernet Spectrum-6 e Spectrum-X, que apresentam óticas integradas, tecidos otimizados para IA e comunicação SerDes de alta velocidade de 200G. Estas inovações oferecem maior fiabilidade, eficiência energética e escalabilidade, permitindo que fábricas de IA baseadas em Rubin operem em múltiplos locais como ambientes unificados e suportem infraestruturas futuras de milhões de GPUs.
NVIDIA Rubin em Produção Completa, Pronto para Implementação em Nuvem e Laboratórios de IA
A nova plataforma entrou em produção completa, com sistemas baseados em Rubin previstos para ficarem disponíveis através de parceiros na segunda metade de 2026. Grandes provedores de nuvem, incluindo AWS, Google Cloud, Microsoft e OCI, bem como Parceiros de Nuvem NVIDIA como CoreWeave, Lambda, Nebius e Nscale, estão entre os primeiros a implementar instâncias alimentadas por Rubin. A Microsoft planeia integrar os sistemas de escala rack NVIDIA Vera Rubin NVL72 em centros de dados de IA de próxima geração, incluindo futuros sites de superfábricas Fairwater AI, formando a base para cargas de trabalho avançadas de treino e inferência em empresas, investigação e aplicações de consumo.
A CoreWeave irá incorporar sistemas Rubin na sua plataforma de nuvem de IA, suportando múltiplas arquiteturas e permitindo desempenho otimizado para cargas de trabalho de treino, inferência e IA agentic. A Cisco, Dell, HPE, Lenovo e Supermicro também deverão oferecer servidores baseados em produtos Rubin. Laboratórios de IA líderes, incluindo Anthropic, Cohere, OpenAI, Meta e outros, estão a adotar Rubin para treinar modelos maiores e mais capazes, suportando sistemas multimodais de longo contexto com menor latência e custo em comparação com gerações anteriores de GPUs.
Parceiros de infraestrutura e armazenamento, como IBM, NetApp, Nutanix, Pure Storage, SUSE e VAST Data, estão a colaborar com a NVIDIA no desenvolvimento de plataformas Rubin de próxima geração. Rubin representa a arquitetura de terceira geração da NVIDIA em escala rack, apoiada por mais de 80 parceiros do ecossistema MGX. A Red Hat anunciou uma colaboração expandida para fornecer uma pilha de IA completa otimizada para Rubin, aproveitando o seu portfólio de nuvem híbrida, incluindo Red Hat Enterprise Linux, OpenShift e Red Hat AI, amplamente utilizados por empresas Fortune Global 500.