NVIDIA、エージェント型AI向けCPU「Vera」を発表

NVIDIAは、2026年3月16日に開催されたGTCにおいて、エージェント型AIと強化学習の時代に向けて設計された世界初のプロセッサ「NVIDIA Vera CPU」を発表しました。このVera CPUは、従来のラックスケールCPUと比較して2倍の効率性と50%の高速化を達成しています。

サーバーラック

Vera CPUの主な特長

Vera CPUは、大規模なデータ処理、AIトレーニング、エージェント型推論において、最高のパフォーマンスとエネルギー効率を提供します。これは、NVIDIA Grace™ CPUの成功を基盤として開発されており、あらゆる規模や業種の組織が大規模なエージェント型AIを実現する「AIファクトリー」を構築できるよう支援します。

最高のシングルスレッド性能とコアあたりの帯域幅を持つVeraは、コーディングアシスタントや消費者向け、エンタープライズ向けのエージェントといった大規模AIサービスにおいて、AIのスループット、応答性、効率性を向上させる新しいクラスのCPUとして設計されています。

Vera CPUの詳細については、NVIDIA Vera CPUをご覧ください。

業界からの幅広い採用

Vera CPUの導入に向けて、NVIDIAは多くの主要企業と協力しています。ハイパースケーラーとしては、Alibaba、CoreWeave、Meta、Oracle Cloud Infrastructureが名を連ねています。また、Dell Technologies、HPE、Lenovo、Supermicroをはじめとするグローバルシステムメーカーも、このテクノロジーを活用したサーバー設計を進めています。

この広範な採用により、Veraは開発者、スタートアップ企業、官公庁、一般企業にとって、最も重要なAIワークロード向けの新しいCPU標準となり、AIへのアクセスを広げ、イノベーションを加速させることが期待されます。

あらゆるデータセンターに対応

NVIDIAは、液冷式のVera CPUを256基統合した新しいVera CPUラックを発表しました。これにより、22,500以上の同時CPU環境を維持し、各環境が独立してフルパフォーマンスで動作することが可能になります。AIファクトリーは、単一のラック内で数万もの同時インスタンスやエージェント型ツールを迅速に展開し、規模を拡大できます。

この新しいVeraラックは、NVIDIA MGX™モジュラーリファレンスアーキテクチャに基づいて構築されており、世界中の80社のエコシステムパートナーによってサポートされています。Vera CPUは、NVIDIA Vera Rubin NVL72プラットフォームの一部として、NVIDIA NVLink™-C2Cインターコネクトテクノロジを介してNVIDIA GPUとペアリングされます。これにより、1.8 TB/sという高速なコヒーレント帯域幅(PCIe Gen 6の7倍)でCPUとGPU間のデータ共有が可能です。

さらに、NVIDIAはNVIDIA HGX™ Rubin NVL8システム向けに、VeraをホストCPUとして採用した新しいリファレンスデザインも発表しており、GPUアクセラレーテッドワークロードにおけるデータの移動とシステム制御を連携させます。

Veraは、NVIDIA ConnectX® SuperNICカードとNVIDIA BlueField®-4プロセッサと統合されており、エージェント型AIに不可欠な高速ネットワーキング、ストレージ、セキュリティを実現します。

エージェント型スケーリングのための設計

Veraは、高性能でエネルギー効率に優れたCPUコア、高帯域幅のメモリサブシステム、第2世代のNVIDIA Scalable Coherency Fabricを組み合わせることで、エージェント型AIと強化学習に共通する極限の使用状況下で、より迅速なエージェント応答を可能にします。

NVIDIA独自設計による88基のカスタムOlympusコアを搭載し、コンパイラ、ランタイムエンジン、分析パイプライン、オーケストレーションサービスに優れたパフォーマンスを提供します。各コアはNVIDIA Spatial Multithreadingにより2つのタスクを同時実行でき、多数のジョブを同時実行するマルチテナントAIファクトリーに最適な、一貫した予測可能なパフォーマンスを提供します。

エネルギー効率をさらに高めるため、VeraはLPDDR5Xメモリをベースとした第2世代のNVIDIA低消費電力メモリサブシステムを搭載しており、最大1.2 TB/sの帯域幅を実現しながら、汎用CPUと比較して消費電力は半分に抑えられています。

広範なエコシステムによるサポート

ストリーミングデータプラットフォームを提供するRedpandaは、Veraを活用してパフォーマンスを大幅に向上させています。RedpandaのCEO兼創業者であるAlex Gallego氏は、「Veraは、コアあたりのメモリ増加とオーバーヘッドの削減というCPUアーキテクチャの新たな方向性を示しており、お客様がリアルタイムストリーミングワークロードをこれまで以上に拡張し、新しいAIおよびエージェント型アプリケーションを切り拓くことを可能にします」と述べています。

Vera CPUの導入を計画している国立研究機関には、ライプニッツスーパーコンピューティングセンター、ロスアラモス国立研究所、ローレンスバークレー国立研究所の国立エネルギー研究科学計算センター、そしてテキサス先端計算センター(TACC)が含まれます。TACCのハイパフォーマンスコンピューティングディレクター、John Cazes氏は、「Veraのコアあたりのパフォーマンスとメモリ帯域幅は、科学計算にとって飛躍的な進歩です」と評価しています。

主要なクラウドサービスプロバイダーでは、Alibaba、ByteDance、Cloudflare、CoreWeave、Crusoe、Lambda、Nebius、Nscale、Oracle Cloud Infrastructure、Together.AI、VultrなどがVera CPUの導入を計画しています。インフラプロバイダーでは、Aivres、ASRock Rack、ASUS、Compal、Cisco、Dell、Foxconn、GIGABYTE、HPE、Hyve、Inventec、Lenovo、MiTAC、MSI、Pegatron、Quanta Cloud Technology (QCT)、Supermicro、Wistron、WiwynnなどがVera CPUを採用しています。

提供予定

NVIDIA Veraは現在量産中であり、今年後半にパートナーから提供される予定です。

NVIDIAの詳細については、NVIDIAをご覧ください。
GTC基調講演のリプレイやセッションについては、以下のリンクからアクセスできます。

×