NVIDIA Vera Rubin プラットフォーム、エージェント型AIの新たな時代を切り拓く

プラットフォームの主要構成要素

NVIDIA Vera Rubinプラットフォームは、NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink™ 6 Switch、NVIDIA ConnectX®-9 SuperNIC、NVIDIA BlueField®-4 DPU、NVIDIA Spectrum™-6 Ethernet スイッチ、そして新たに統合されたNVIDIA Groq 3 LPUといった7つのチップを核としています。これらのチップは、大規模な事前トレーニング、ポストトレーニング、テストタイムスケーリングからリアルタイムのエージェント型推論まで、AIのあらゆるフェーズを支える単一のAIスーパーコンピューターとして機能するように設計されています。

NVIDIAの創業者兼CEOであるジェンスン フアン氏は、「Vera Rubinは世代を超えた飛躍であり、エージェント型AIの転換期をもたらす」と述べています。

PODスケールシステムへの移行

AIインフラは、個別のチップやスタンドアロンサーバーから、完全に統合されたラックスケールシステム、PODスケールでの展開、AIファクトリー、ソブリンAIへと急速に進化しています。この進歩は、スタートアップから大企業、公的機関まで、あらゆる規模の組織においてパフォーマンスの劇的な向上とコスト効率の改善をもたらします。

80社以上のMGXエコシステムパートナーとグローバルなサプライチェーンに支えられ、NVIDIA Vera Rubinは、AI専用に構築された複数のラックが1つの巨大で一貫したシステムとして機能する、最も広範なNVIDIA PODスケールプラットフォームを提供します。

NVIDIA Vera Rubin NVL72 ラック

Vera Rubin NVL72は、NVLink 6で接続された72基のRubin GPUと36基のVera CPU、さらにConnectX-9 SuperNICとBlueField-4 DPUを統合しています。これにより、NVIDIA Blackwellプラットフォームと比較して4分の1のGPU数で大規模なエキスパート混合モデルをトレーニングし、トークンあたりのコストを10分の1に削減、ワットあたり最大10倍高い推論スループットを達成します。

NVIDIA Vera CPU ラック

強化学習やエージェント型AIワークロードは、GPUシステムで生成された結果をテスト・検証するために、多数のCPUベース環境に依存しています。NVIDIA Vera CPUラックは、NVIDIA MGX上に構築された高密度の液冷インフラを提供し、最大256基のVera CPUを統合することで、大規模なエージェント型AIを実現します。Veraは従来のCPUよりも2倍の効率と50%の高速化を実現するとされています。

NVIDIA Groq 3 LPX ラック

NVIDIA Groq 3 LPXは、エージェント型システムの低レイテンシかつ大規模コンテキストの要求に合わせて設計されたアクセラレーテッドコンピューティングの画期的な進歩です。LPXとVera Rubinは、両プロセッサの究極のパフォーマンスを統合し、1兆パラメータモデルにおいてメガワットあたりの推論スループットを最大35倍向上させ、収益機会を最大10倍に拡大すると見込まれています。LPXラックは256基のLPUプロセッサを搭載し、今年後半に提供開始予定です。

NVIDIA BlueField-4 STX ストレージ ラック

NVIDIA BlueField-4 STXストレージラックは、ラックスケールシステムにおいてGPUメモリをシームレスに拡張するAIネイティブなストレージインフラです。BlueField-4を搭載し、NVIDIA Vera CPUとNVIDIA ConnectX-9 SuperNICと組み合わせることで、LLMおよびエージェント型AIワークフローによって生成される大規模なKey-Value (KV) キャッシュデータの保存と取得に最適化された高帯域幅の共有レイヤーを提供します。新しいDOCAフレームワークであるNVIDIA DOCA Memos™は、推論スループットを最大5倍向上させるとともに、電力効率を大幅に改善します。

関連情報:NVIDIA BlueField-4 STX

NVIDIA Spectrum-6 SPX Ethernet ラック

Spectrum-6 SPX Ethernetは、AIファクトリー全体の東西トラフィックを高速化するように設計されています。Spectrum-X EthernetまたはNVIDIA Quantum-X800 InfiniBandスイッチで構成可能で、低レイテンシで高スループットのラック間接続を大規模に実現します。コパッケージドオプティクスを搭載するSpectrum-X Ethernet Photonicsは、従来のプラガブルトランシーバーと比較して、最大5倍の光電力効率と10倍のレジリエンスを実現します。

レジリエンスとエネルギー効率の向上

NVIDIAは、200社以上のデータセンターインフラパートナーと共に、Vera Rubinプラットフォーム向けのDSXを発表しました。新しいDSXプラットフォームには、AIファクトリー全体の動的な電力プロビジョニングを可能にするDSX Max-Qが含まれており、これにより、一定の電力供給制限があるデータセンター内でも、AIインフラの展開を30%増加させることができます。新しいDSX Flexソフトウェアは、AIファクトリーをグリッドに柔軟な資産へと変え、未活用となっていた100ギガワットのグリッド電力を開放します。

また、NVIDIAは「Vera Rubin DSX AI Factory リファレンス デザイン」を公開しました。これは、コンピューティング、ネットワーキング、ストレージ、電力、冷却を緊密に統合することで、エネルギー効率を向上させ、AIファクトリーが継続的な高負荷ワークロードの下で稼働時間を最大化しながら確実に拡張できるようにするためのブループリントです。

関連情報:Vera Rubin DSX AI Factory リファレンス デザイン

幅広いエコシステム サポート

Vera Rubinベースの製品は、今年後半にパートナーから提供開始予定です。これには、主要なクラウドプロバイダーであるAmazon Web Services、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructureのほか、NVIDIA Cloud PartnerであるCoreWeave、Crusoe、Lambda、Nebius、Nscale、Together AIが含まれます。

グローバルシステムメーカーのCisco、Dell Technologies、HPE、Lenovo、Supermicro、Aivres、ASUS、Foxconn、GIGABYTE、Inventec、Pegatron、Quanta Cloud Technology (QCT)、Wistron、Wiwynnからも、Vera Rubin製品をベースにした幅広いサーバーが提供される見込みです。

関連情報:

Anthropic、Meta、Mistral AI、OpenAIなどのAIラボと最先端のモデル開発者は、NVIDIA Vera Rubinプラットフォームを活用し、より大規模で高性能なモデルのトレーニングと、低レイテンシ・低コストでの長文コンテキストマルチモーダルシステムの提供を目指しています。

関連情報:NVIDIA