NVIDIAがAI推論を効率化する「Dynamo 1.0」を発表 — 大規模AIの運用を最適化
NVIDIAは2026年3月16日、大規模なAI推論とエージェント型AIシステムに対応するオープンソースソフトウェア「NVIDIA Dynamo 1.0」の提供を開始しました。

AIファクトリーの「オペレーティングシステム」
「Dynamo 1.0」は、AIファクトリーにおける分散型の「オペレーティングシステム」として機能します。これは、コンピューターのOSがハードウェアとアプリケーションを調整するように、データセンター内のGPUやメモリリソースを効率的に管理し、複雑なAIの処理を最大限の効率で動かす役割を担います。
このシステムをNVIDIAの最新プラットフォーム「NVIDIA Blackwell」と組み合わせることで、クラウドサービスを提供する企業やAI技術を開発する企業、そして世界中の大企業は、これまでにない規模、効率、速さで高性能なAI推論を実現できるようになります。
推論パフォーマンスの向上とコスト削減
近年の業界の評価では、「Dynamo 1.0」が無料のオープンソースソフトウェアでありながら、NVIDIA Blackwell GPUの推論パフォーマンスを最大で7倍向上させることが示されています。これにより、数百万個のGPUにおけるトークン(AIが処理する情報の最小単位)のコストを削減し、企業がAIを活用して収益を上げる機会を増やすことが期待されます。
エージェント型AIシステムが実用化されるにつれて、データセンター内でAI推論を大規模に動かすことは、さまざまなサイズや形式、性能目標を持つリクエストが予測できない形で発生するため、リソースの管理が難しくなっています。「Dynamo 1.0」は、より高度な「交通整理」のような機能と、GPUと安価なストレージ間のデータ移動機能を加えることで、この課題に対応します。これにより、推論作業をGPU間で適切に分散し、無駄な作業を減らし、メモリの限界を緩和します。
広がるNVIDIA推論プラットフォームの採用
NVIDIAは、「Dynamo 1.0」と「NVIDIA TensorRT™-LLM」ライブラリの最適化を、LangChain、llm-d、LMCache、SGLang、vLLMといった主要なオープンソースフレームワークに組み込むことで、AIエコシステムの発展を加速させています。
NVIDIAの推論プラットフォームは、すでに多くの企業に採用され、その技術が統合されています。
-
クラウドサービスプロバイダー:
-
Amazon Web Services (AWS)
-
Microsoft Azure (Microsoft Azure)
-
Google Cloud (Google Cloud)
-
Oracle Cloud Infrastructure (OCI)
-
NVIDIAクラウドパートナー:
-
Alibaba Cloud (Alibaba Cloud)
-
CoreWeave
-
Crusoe
-
DigitalOcean
-
Gcore
-
GMI Cloud
-
Lightning AI
-
Nebius
-
Nscale
-
Together AI
-
Vultr
-
AIネイティブ企業:
-
Cursor
-
Hebbia
-
Perplexity
-
推論エンドポイントプロバイダー:
-
Baseten
-
Deep Infra
-
Fireworks
-
グローバル企業:
-
Amazon
-
AstraZeneca
-
BlackRock
-
ByteDance
-
Coupang
-
Instacart
-
Meituan
-
PayPal
-
Pinterest
-
Shopee
-
ソフトバンク株式会社
提供開始について
「Dynamo 1.0」は、2026年3月16日より世界中の開発者向けに提供が開始されました。詳細な情報や導入方法については、以下のNVIDIAのウェブサイトで確認できます。
NVIDIAに関する詳細情報は、NVIDIAのウェブサイトをご覧ください。


