IBM、NetApp、Nutanix、Pure Storage、SUSE、VAST Dataなどのインフラ・ストレージパートナーは、次世代Rubinプラットフォームの設計に協力しています。Rubinは、NVIDIAの第3世代ラックスケールアーキテクチャであり、80以上のMGXエコシステムパートナーによって支えられています。Red Hatは、Rubin向けに最適化されたAIスタックを提供するための拡張コラボレーションを発表し、Red Hat Enterprise Linux、OpenShift、Red Hat AIを含むハイブリッドクラウドポートフォリオを活用しています。
NVIDIA、Rubinを発表:次世代AIスーパーコンピュータを支える新たに6つのチップ
要点
NvidiaはCES 2026でRubinプラットフォームを発表し、6つの新しいチップを統合した統一型AIスーパーコンピュータを構築し、Blackwellシリーズの5倍のトレーニング計算能力を実現しました。
テクノロジー企業NVIDIAはCES 2026でRubinプラットフォームを発表し、6つの新しいチップから構成される統一型AIスーパーコンピュータを導入しました。これにより、Blackwellシリーズの5倍のトレーニング計算能力を提供します。このプラットフォームは、大規模AIシステムの構築、展開、セキュリティの新たな基準を設定し、コストを最小限に抑えつつAI技術の普及を支援することを目的としています。
Rubinプラットフォームは、NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink 6 Switch、NVIDIA ConnectX-9 SuperNIC、NVIDIA BlueField-4 DPU、NVIDIA Spectrum-6 Ethernet Switchの6つのコンポーネント間の密接な共同設計によって性能を実現しています。この統合アプローチにより、トレーニング時間が短縮され、推論トークンのコストも削減されます。
Rubinは、次世代NVLinkインターコネクト、Transformer Engine、Confidential Computing、RAS Engine、NVIDIA Vera CPUなどの5つの主要な革新を導入しています。これらの進歩により、エージェント型AI、高度な推論、大規模なMixture-of-Experts (MoE)モデルの推論を、Blackwellプラットフォームと比較してトークンあたりコストを最大10分の1に抑えて実現可能にしています。このシステムは、GPUを4倍少なくしてMoEモデルのトレーニングを行うこともでき、AIの普及をさらに加速させます。
このプラットフォームは、Amazon Web Services (AWS)、Anthropic、Black Forest Labs、Cisco、Cohere、CoreWeave、Cursor、Dell Technologies、Google、Harvey、HPE、Lambda、Lenovo、Meta、Microsoft、Mistral AI、Nebius、Nscale、OpenAI、OpenEvidence、Oracle Cloud Infrastructure (OCI)、Perplexity、Runway、Supermicro、Thinking Machines Lab、xAIなどの主要なAI研究所、クラウドサービス提供者、ハードウェアメーカー、スタートアップによって展開される見込みです。
AIネイティブストレージとAI工場向けソフトウェア定義インフラの発表
NVIDIA Rubinは、大規模AIワークロードを効率的にサポートするために設計されたAIネイティブストレージと安全なソフトウェア定義インフラを導入します。BlueField-4搭載のNVIDIA Inference Context Memory Storage Platformは、キーとバリューのキャッシュデータを迅速に共有・再利用でき、多ターンのエージェント型AIアプリケーションのスループットとエネルギー効率を向上させます。BlueField-4には、Advanced Secure Trusted Resource Architecture (ASTRA)も含まれ、ベアメタルやマルチテナントAI環境において、安全なプロビジョニングと隔離を行うための信頼できるコントロールポイントを提供します。
このプラットフォームは、Vera Rubin NVL72(72個のRubin GPU、36個のVera CPU、NVLink 6、ConnectX-9 SuperNIC、BlueField-4 DPUを統合)や、x86ベースの生成AIプラットフォームをサポートする8つのRubin GPUをリンクするHGX Rubin NVL8など、複数の構成で提供されます。NVIDIA DGX SuperPODは、Rubinシステムを大規模に展開するためのリファレンスアーキテクチャとして、計算、ネットワーキング、管理ソフトウェアを組み合わせています。
次世代のネットワークとストレージは、Spectrum-6とSpectrum-X Ethernetプラットフォームによって提供され、これらはコ-packaged光学素子、AI最適化されたファブリック、高速200G SerDes通信を特徴とします。これらの革新により、信頼性、エネルギー効率、スケーラビリティが向上し、RubinベースのAI工場が複数のサイトで統合された環境として運用できるほか、将来的な百万GPUインフラの構築も支援します。
NVIDIA Rubin、本格生産開始、クラウドやAI研究所への展開準備完了
新しいプラットフォームは本格的に生産に入り、Rubinベースのシステムは2026年後半にパートナーを通じて利用可能になる見込みです。主要なクラウド事業者(AWS、Google Cloud、Microsoft、OCI)や、NVIDIA Cloud PartnersのCoreWeave、Lambda、Nebius、Nscaleなどが最初にRubin搭載インスタンスを展開します。Microsoftは、次世代AIデータセンターにNVIDIA Vera Rubin NVL72ラックスケールシステムを統合し、将来のFairwater AIスーパーファクトリーサイトを含む、企業、研究、消費者向けの高度なトレーニングと推論ワークロードの基盤を形成する予定です。
CoreWeaveは、AIクラウドプラットフォームにRubinシステムを組み込み、複数のアーキテクチャをサポートし、トレーニング、推論、エージェント型AIワークロードの最適化されたパフォーマンスを実現します。Cisco、Dell、HPE、Lenovo、Supermicroも、Rubin製品を基にしたサーバーを提供する見込みです。Anthropic、Cohere、OpenAI、Metaなどの主要AI研究所は、より大きく、より高性能なモデルのトレーニングや、長いコンテキスト、多モーダルシステムのサポートにRubinを採用し、遅延とコストを従来のGPU世代より削減しています。
IBM、NetApp、Nutanix、Pure Storage、SUSE、VAST Dataなどのインフラ・ストレージパートナーは、次世代Rubinプラットフォームの設計に協力しています。Rubinは、NVIDIAの第3世代ラックスケールアーキテクチャであり、80以上のMGXエコシステムパートナーによって支えられています。Red Hatは、Rubin向けに最適化されたAIスタックを提供するための拡張コラボレーションを発表し、Red Hat Enterprise Linux、OpenShift、Red Hat AIを含むハイブリッドクラウドポートフォリオを活用しています。