CES 2026で、ジェンセン・ファンはNVIDIAの企業戦略を強調する変革的な基調講演を行った。これは、純粋なAIトレーニングに焦点を当てた時代から、効率的な大規模推論と具現化された知能によって支配される時代への移行を示すものだ。90分にわたり、NVIDIAのCEOは8つの主要発表を披露し、それぞれが一つの戦略—ハードウェア加速されたGPUスケジューリングとネットワーク化されたコンピューティングが切り離せない、緊密に統合されたシステムの構築—を強化していた。メッセージは明確だった:未来は孤立したアクセラレータではなく、コスト効率の良いスループットを実現するシステムに属する。
Vera Rubinプラットフォーム:6チップアプローチによる高速化システム設計
Vera Rubinはデータセンターアーキテクチャの根本的な再考を表す。アクセラレータを汎用インフラに無理やり追加するのではなく、NVIDIAは6つの補完的なチップ—Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-X CPO—を共同設計し、それぞれが一つのエコシステムとして最適化されている。
Vera CPUは、カスタムOlympusコアを基盤とし、1.8TB/sのNVLink-CPU接続を用いてデータ移動とエージェント処理を担当し、GPUスケジューリングに必要な調整を効果的に行う。Rubin GPUはTransformerエンジンとNVFP4推論能力を備え、50 PFLOPSの性能を発揮—Blackwellの5倍—し、22TB/sの帯域幅を持つHBM4メモリをサポートし、前世代の2.8倍の性能を実現している。これらの仕様は孤立して重要なのではなく、モデルの拡大と推論トークンの増加に伴い、従来のGPUスケジューリングがメモリ帯域とデータ移動コストのボトルネックとなるという重要な問題を解決するためだ。
Vera Rubinの発表は、単なる次世代推論ハードウェアの証明ではなく、ハードウェアアクセラレーション、ネットワークオーケストレーション、ソフトウェア最適化が融合した統合システムへのNVIDIAの賭けが業界の常識となった証左だ。 hyperscalerがSuperPODを展開し、企業がDGXクラスター上にプライベートなエージェントAIを構築する今、インフラの風景はNVIDIAのビジョンに収束しつつある。
次世代GPUアクセラレーションの時代:NVIDIAのVera RubinがハードウェアアクセラレートGPUスケジューリングを再定義
CES 2026で、ジェンセン・ファンはNVIDIAの企業戦略を強調する変革的な基調講演を行った。これは、純粋なAIトレーニングに焦点を当てた時代から、効率的な大規模推論と具現化された知能によって支配される時代への移行を示すものだ。90分にわたり、NVIDIAのCEOは8つの主要発表を披露し、それぞれが一つの戦略—ハードウェア加速されたGPUスケジューリングとネットワーク化されたコンピューティングが切り離せない、緊密に統合されたシステムの構築—を強化していた。メッセージは明確だった:未来は孤立したアクセラレータではなく、コスト効率の良いスループットを実現するシステムに属する。
Vera Rubinプラットフォーム:6チップアプローチによる高速化システム設計
Vera Rubinはデータセンターアーキテクチャの根本的な再考を表す。アクセラレータを汎用インフラに無理やり追加するのではなく、NVIDIAは6つの補完的なチップ—Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-X CPO—を共同設計し、それぞれが一つのエコシステムとして最適化されている。
Vera CPUは、カスタムOlympusコアを基盤とし、1.8TB/sのNVLink-CPU接続を用いてデータ移動とエージェント処理を担当し、GPUスケジューリングに必要な調整を効果的に行う。Rubin GPUはTransformerエンジンとNVFP4推論能力を備え、50 PFLOPSの性能を発揮—Blackwellの5倍—し、22TB/sの帯域幅を持つHBM4メモリをサポートし、前世代の2.8倍の性能を実現している。これらの仕様は孤立して重要なのではなく、モデルの拡大と推論トークンの増加に伴い、従来のGPUスケジューリングがメモリ帯域とデータ移動コストのボトルネックとなるという重要な問題を解決するためだ。
すべてのコンポーネントを1ラックのシステムに統合したVera Rubin NVL72は、推論性能3.6 EFLOPSと20億トランジスタを実現している。さらに重要なのは、このシステムのアーキテクチャが前例のない規模でのハードウェア加速GPUスケジューリングを可能にしている点だ。NVLink 6 Switchは、(2x前世代)のGPUあたり3.6TB/sの完全インターコネクト帯域幅を達成し、ネットワーク内計算は14.4 TFLOPSのFP8精度をサポートする。これは単なる帯域幅の増加ではなく、分散推論ワークロードに内在するスケジューリングのボトルネックを排除するために設計された帯域幅だ。
このシステムは100%液冷を採用し、モジュール式のファンレスコンピュートトレイにより、組み立て時間を2時間から5分に短縮している。NVLink Switchトレイと第2世代RASエンジンによるゼロダウンタイムのメンテナンスにより、推論クラスターはデータセンターが求める稼働時間の信頼性を実現している。すでに80以上のMGXパートナーがVera Rubinの導入準備を整えている。
推論効率の最前線を狙う3つの革新
ハードウェアの基盤を超えて、NVIDIAは推論のボトルネックに特化した3つの製品を発表した:Spectrum-X Ethernet CPO、推論コンテキストメモリストレージプラットフォーム、そしてVera Rubinを基盤としたDGX SuperPOD。
Spectrum-X Ethernet Co-Packaged Opticsは、200GbpsのSerDes技術を用いた2チップ設計を採用し、ASICあたり102.4Tb/sを実現。従来のスイッチングネットワークと比較して、CPOアーキテクチャはエネルギー効率を5倍向上させ、信頼性を10倍高め、アプリケーションの稼働時間を5倍改善している。これにより、より多くの推論トークンを毎日処理しつつ、データセンターのTCOを削減できる—推論のコモディティ化競争において重要な競争優位性だ。
推論コンテキストメモリストレージプラットフォームは、長いシーケンスAIワークロードのためのコンテキストストレージの扱い方を根本的に再定義する。エージェントAIシステムがマルチターン会話やRAGパイプライン、多段階推論を扱う中で、コンテキストウィンドウは数百万トークンに拡大している。キー・バリューキャッシュを毎推論ステップごとに再計算するのはGPUの計算資源の浪費と遅延を招くため、プラットフォームはコンテキストをファーストクラスの市民として扱い、BlueField-4とSpectrum-X接続ストレージ層を用いて保存・再利用を行う。NVLinkを介したGPUメモリとの緊密な連携を維持しつつ、コンテキストストレージをGPUメモリから切り離すことで、推論性能を5倍、エネルギー効率も5倍向上させている。これは根本的なアーキテクチャの変化であり、推論のボトルネックが純粋な計算からコンテキスト管理へと移行したことを示す。
DGX SuperPOD with Vera Rubinは、即席AI工場の設計図となる。8台のVera Rubin NVL72システムを、NVLink 6による垂直スケーリングとSpectrum-X Ethernetによる水平スケーリングで組み合わせ、コラボレーティブなチップレベルの設計がシステムレベルのコスト削減に波及する様子を示す。従来のBlackwell世代と比較して、大規模なMoEモデルのトレーニングにはGPU数の4分の1しか必要なく、トークンあたりの推論コストも1/10に低減されている。NVIDIA Mission Controlソフトウェアによって管理され、SuperPODはGPUスケジューリング、ネットワークオーケストレーション、ストレージ調整を透過的に行う統一推論エンジンとして機能している。
オープンソースアンプ:モデルから統合エージェントへ
NVIDIAのオープンソース貢献の積極的拡大—2025年だけで650モデルと250データセットを公開—は、巧妙な戦略を反映している。それは、開発者に強力で無料のツールを供給しつつ、基盤となるハードウェアの重要性を高めることだ。
同社はオープンモデルとツールを「Blueprints」と呼ばれるSaaSフレームワークに統合し、多モデル、多クラウドのエージェントシステムを可能にしている。これらのシステムは、タスクの要件に応じてローカルのプライベートモデルやクラウドの最先端モデルに自動的にクエリをルーティングし、外部APIを呼び出し、マルチモーダル入力((テキスト、音声、画像、センサーデータ))を融合する。開発者のワークフローにこのアーキテクチャを組み込むことで、コスト意識の高い組織も最終的にはVera Rubinの推論インフラに依存し、実運用に展開していく。
拡大したNemotronファミリーには、エージェントRAGモデル、安全性重視のバリアント、音声モデルなどが含まれ、これらは新たなエージェントAIスタックのボトルネックに対応している。開発者はこれらのモデルを微調整し、Cosmosを使った合成データ生成や、2年前には考えられなかったアプリケーション構築も可能になっている。
物理AI:自律走行と現実世界の推論の融合
NVIDIAは、現実世界を理解し、不確実性について推論し、複雑な行動を実行する知能—物理AI—を次の数兆ドルのフロンティアと位置付けている。自律走行車が主要な実証の場となる。
Alpha-Mayoは、レベル4自動運転向けのオープンソースモデルスイートで、このビジョンを体現している。10億パラメータを持ち、推論に基づく意思決定を可能にし、複雑な運転シナリオを段階に分解し、安全な行動を選択する。反応型ルールシステムではなく、オブジェクトの永続性を理解し、車両の挙動を予測し、未曾有のエッジケース—例えば交差点での信号機故障—にも対応できる。
メルセデス・ベンツのCLAは、Alpha-Mayoの統合により最高のNCAP安全評価を獲得した。NVIDIA DRIVEプラットフォームは、実運用ハードウェア上でハンズフリーの高速道路運転や都市部の自律走行をサポートし、物理AIの大規模展開への準備が整ったことを示している。Alpha-Simは評価フレームワークのオープンソースであり、Cosmosによる合成データ生成も可能で、世界中の開発者が自律走行車の開発を加速させている。
自動車分野を超え、NVIDIAはBoston Dynamics、Franka Robotics、LG Electronicsなどと提携し、NVIDIA IsaacやGR00Tプラットフォームを活用したロボティクス分野に進出している。シーメンスとの協力により、EDA、CAE、デジタルツインツールにNVIDIA技術を組み込み、物理AIを設計、シミュレーション、製造、運用の各段階に浸透させている。
競争優位の深化:システムエンジニアリングが勝負の鍵
AIインフラ市場がトレーニング中心から推論中心の経済へと移行する中、プラットフォーム競争は単なるGPU FLOPSから、チップ、ラック、ネットワーク、ソフトウェアオーケストレーションを包括するシステムエンジニアリングへと進化している。
NVIDIAの戦略は二つの側面で同時に展開されている。オープンソース側では、モデル、ツール、データセットを積極的に提供し、AI開発を民主化し、推論の総ターゲット市場を拡大している。一方、クローズド側では、共同設計のVera Rubinエコシステム—チップ、NVLink帯域幅、Spectrum-Xネットワーク、コンテキストストレージ層、Mission Controlソフトウェア—の密接な統合により、模倣が困難な競争優位を築いている。
この閉ループのダイナミクスは強力だ。オープンエコシステムを拡大することでAIの普及とトークン消費を促進し、コスト効率の良い推論インフラを提供することで、スケールするワークロードを取り込み、ハードウェアアーキテクチャやGPUスケジューリングの継続的な革新により、他のプラットフォームが性能・コスト比で追随しにくくなる。この自己強化的な優位性は、単一の製品サイクルを超えて持続する。
Vera Rubinの発表は、単なる次世代推論ハードウェアの証明ではなく、ハードウェアアクセラレーション、ネットワークオーケストレーション、ソフトウェア最適化が融合した統合システムへのNVIDIAの賭けが業界の常識となった証左だ。 hyperscalerがSuperPODを展開し、企業がDGXクラスター上にプライベートなエージェントAIを構築する今、インフラの風景はNVIDIAのビジョンに収束しつつある。
開発者や運用者にとっては明白だ。従来の汎用プラットフォームにアクセラレータを無理やり取り付ける時代は終わった。効率的でスケーラブルな推論の未来は、タスクに特化したハードウェア加速システム上で動作する。