NVIDIA、エージェント型AI時代を支える新CPU「Vera」を発表

NVIDIAは、AIの進化が加速する現代において、エージェント型AIや強化学習の新しい時代に向けたプロセッサ「NVIDIA Vera CPU」を発表しました。

サーバーラック

エージェント型AIに特化したVera CPUの性能

NVIDIA Vera CPUは、従来のデータセンター向けCPUと比較して、電力効率が2倍になり、処理速度が1.5倍に向上しています。これは、AIが自分で考えて行動したり、論理的に考えたりする際に必要な大量のデータ処理や計算を、より速く、より少ない電力で行えることを意味します。

Vera CPUは、すでに成功を収めているNVIDIA Grace™ CPUの技術を基にして開発されました。これにより、プログラミングのサポートをするAIや、私たちの生活を助けるAIアシスタントなど、大規模なAIサービスが、より速く反応し、効率的に動くようになります。

Vera CPUは、NVIDIAが独自に設計した88個の「Olympusコア」を搭載しています。それぞれのコアは同時に2つの作業をこなすことができ、多くのAIの仕事を同時に処理するのに適しています。また、電力消費を抑えながら、高速なデータ通信ができるメモリシステムも採用されています。

AIファクトリーの構築をサポート

NVIDIAは、Vera CPUを256個搭載し、液体で冷却する新しいサーバーラックも発表しました。このラックは、数万ものAIのプログラムを同時に動かすことができ、企業がAIシステムを簡単に導入し、規模を拡大することを可能にします。

この新しいサーバーラックは、NVIDIA MGX™というモジュラー設計に基づいており、世界中の多くの企業がこの技術をサポートしています。また、Vera CPUは、NVIDIA Vera Rubin NVL72というプラットフォームの一部として、NVIDIAの高性能なGPUと高速な接続技術「NVIDIA NVLink™-C2C」でつながり、CPUとGPUの間でデータを非常に速くやり取りできます。これにより、GPUを使ったAIの計算もさらに効率的になります。

さらに、Vera CPUは、NVIDIA ConnectX® SuperNICカードNVIDIA BlueField®-4プロセッサと連携し、AIに必要な高速なネットワーク、データ保存、セキュリティ機能を提供します。

広がるVera CPUのエコシステム

Vera CPUは、すでに多くの大手企業や研究機関で導入が計画されています。

  • ハイパースケーラー: Alibaba、CoreWeave、Meta、Oracle Cloud Infrastructureなど

  • システムメーカー: Dell Technologies、HPE、Lenovo、Supermicroなど

  • クラウドサービスプロバイダー: Alibaba、ByteDance、Cloudflare、CoreWeave、Crusoe、Lambda、Nebius、Nscale、Oracle Cloud Infrastructure、Together.AI、Vultrなど

  • インフラプロバイダー: Aivres、ASRock Rack、ASUS、Compal、Cisco、Dell、Foxconn、GIGABYTE、HPE、Hyve、Inventec、Lenovo、MiTAC、MSI、Pegatron、Quanta Cloud Technology (QCT)、Supermicro、Wistron、Wiwynnなど

ストリーミングデータプラットフォームを提供するRedpandaは、Vera CPUのテストで、他のシステムよりも大幅に優れたパフォーマンスと、最大5.5倍の通信遅延の低減を達成したと報告しています。

また、ライプニッツ スーパーコンピューティング センターやロスアラモス国立研究所、テキサス先端計算センター (TACC) などの国立研究機関もVera CPUの導入を計画しており、特にTACCは科学計算において大きな進歩をもたらすと期待を寄せています。

提供予定

NVIDIA Vera CPUは現在量産中で、2026年後半には各パートナー企業から提供が開始される予定です。

今回の発表に関する詳細は、NVIDIAの創業者兼CEOであるジェンスン フアン氏のGTC基調講演のリプレイ、およびその他のセッションでも確認できます。

より詳しい情報はNVIDIAの公式ウェブサイトをご覧ください。

×