NVIDIA、次世代AIの幕開けとなる「Rubin」プラットフォームを発表 — 6つの新チップとAIスーパーコンピューターでAI導入を加速

NVIDIAは、次世代のAI技術を推進する「NVIDIA Rubin」プラットフォームを発表しました。このプラットフォームは、6つの新しいチップとAIスーパーコンピューターで構成され、AIの導入を加速させることを目指しています。

NVIDIA Rubin プラットフォーム

Rubinプラットフォームの主な特徴

Rubinプラットフォームは、ハードウェアとソフトウェアが連携して設計されており、NVIDIA Blackwellプラットフォームと比較して、AI推論のトークンあたりのコストを最大10分の1に削減できます。また、大規模なMoE(Mixture of Experts)モデルのトレーニングに必要なGPUの数を4分の1に減らすことが可能です。これにより、AI開発や運用にかかる費用と時間を大幅に効率化します。

さらに、NVIDIA Spectrum-X Ethernet Photonics スイッチ システムは、電力効率とシステムの稼働時間を5倍向上させ、NVIDIA BlueField-4 ストレージ プロセッサを搭載した新しいNVIDIA Inference Context Memory Storageプラットフォームは、エージェント型AIの処理速度を高めます。

NVIDIAの創業者兼CEOであるジェンスン フアン氏は、「AIの計算需要が急増する中、Rubinプラットフォームは非常に良いタイミングで登場しました。6つの新しいチップを連携させることで、AIの未来に向けた大きな進歩を遂げます」と述べています。

Rubinプラットフォームを構成する主要チップ

Rubinプラットフォームは、以下の6つのチップが密接に連携して動作します。

これらのチップが連携することで、トレーニング時間を大幅に短縮し、推論コストを削減します。

5つの革新的な技術

Rubinプラットフォームは、エージェント型AIや高度なリーズニング、大規模なMoEモデルの推論を高速化するために、5つの画期的な技術を導入しています。

  1. 第6世代 NVIDIA NVLink: GPU間の高速通信を可能にし、各GPUは3.6TB/sの帯域幅を提供。Vera Rubin NVL72ラック全体では260TB/sの帯域幅を実現します。
  2. NVIDIA Vera CPU: エージェント型リーズニング向けに設計されたCPUで、高い電力効率とArmv9.2互換性、超高速NVLink-C2C接続を備えています。
  3. NVIDIA Rubin GPU: AI推論向けに50ペタフロップスのNVFP4計算能力を提供する第3世代Transformer Engineを搭載しています。
  4. 第3世代 NVIDIA Confidential Computing: データセキュリティを維持し、大規模なモデルやワークロードを保護するラックスケールプラットフォームです。詳細はこちらをご覧ください。
  5. 第2世代 RAS エンジン: GPU、CPU、NVLinkを網羅し、リアルタイムの健全性チェック、耐障害性、予防保守機能によりシステムの生産性を最大化します。

AIネイティブストレージとセキュリティ

Rubinプラットフォームは、AIネイティブストレージインフラであるNVIDIA Inference Context Memory Storage Platformを導入しています。これにより、AIインフラ全体でKVキャッシュデータを効率的に共有・再利用でき、エージェント型AIのスケーリングを可能にします。

また、BlueField-4はAdvanced Secure Trusted Resource Architecture (ASTRA) を導入し、大規模AI環境の安全なプロビジョニング、分離、運用をサポートします。

多様なシステム形態と次世代イーサネット

Rubinプラットフォームは、NVIDIA Vera Rubin NVL72NVIDIA HGX Rubin NVL8などの多様なシステム形態を提供します。これらのシステムは、AIおよびハイパフォーマンスコンピューティングのワークロードを加速させます。大規模な展開には、NVIDIA DGX SuperPOD™がリファレンスとして機能します。

ネットワーキングでは、NVIDIA Spectrum-6 イーサネットがAIネットワーキングの次世代を担います。これにより、AIファクトリーを高い効率と信頼性で拡張することが可能です。特にSpectrum-X Ethernet Photonics Co-Packaged Optics スイッチ システムは、信頼性を10倍、稼働時間を5倍向上させ、電力効率も5倍に向上させます。

幅広いエコシステムと提供状況

Rubinプラットフォームは、Amazon Web Services (AWS)、Google Cloud、Microsoft、Oracle Cloud Infrastructure (OCI) などの主要なクラウドプロバイダー、CoreWeave、Lambda、Nebius、NscaleといったNVIDIA クラウド パートナー、そしてDell Technologies、HPE、Lenovo、Supermicroなどのコンピューターメーカーと連携して提供されます。

Microsoftは、次世代のFairwater AIスーパーファクトリーの一部として、NVIDIA Vera Rubin NVL72ラックスケールシステムを展開する予定です。また、CoreWeaveは2026年後半からNVIDIA RubinベースのシステムをAIクラウドプラットフォームに統合する計画です。

インフラソフトウェアおよびストレージパートナーもNVIDIAと協力し、Rubinインフラ向けの次世代プラットフォームを設計しています。Red Hatは、NVIDIA Rubinプラットフォーム向けに最適化された完全なAIスタックを提供するためにNVIDIAとの協業を拡大することを発表しました。

Rubinベースの製品は、2026年後半にパートナーから提供が開始される予定です。

NVIDIA Rubinプラットフォームに関する詳細情報は、CESにおけるNVIDIA LIVEを視聴するか、技術ブログ「Inside Vera Rubin」をご覧ください。

NVIDIAについて

×