NVIDIA、AIファクトリー向け推論オペレーティングシステム「Dynamo 1.0」を本番稼働向けに提供開始
NVIDIAは、大規模な生成AIの推論や、AIが自ら判断して動作する「エージェント型AI」の推論を効率的に行うための新しいオープンソースソフトウェア「NVIDIA Dynamo 1.0」の提供を開始しました。

Dynamo 1.0とは
Dynamo 1.0は、AIを動かすための工場(AIファクトリー)で使われる、分散型の「オペレーティングシステム」のような役割を担います。これは、パソコンのOSがパソコンの部品とアプリを連携させるように、たくさんのGPU(画像を処理する高性能な半導体)やメモリの資源をうまく調整し、複雑なAIの仕事を最も効率良く進めるためのものです。
NVIDIAの最新のGPUである「Blackwellプラットフォーム」と一緒に使うことで、クラウドサービスを提供する会社や、AI技術を開発する企業、そして世界中の大きな会社が、これまでになかったような規模で、効率良く、速いAI推論を実現できるようになります。
パフォーマンスと効果
Dynamoは、NVIDIA Blackwell GPUのAI推論の性能を最大で7倍も高めることができます。これにより、AIが情報を処理する際のコスト(トークンコスト)を大きく減らし、企業がより多くの利益を得る機会を増やします。
特にエージェント型AIが実際に使われるようになるにつれて、データセンター内でAI推論の規模を大きくしていくことは、さまざまな種類や大きさ、性能が求められるリクエストが予測できない形で届くため、資源をどのように割り当てるかという複雑な課題がありました。Dynamo 1.0は、GPUと低コストの記憶装置の間でデータを動かす機能を強化し、AIの仕事をGPU全体にうまく分担させます。これにより、無駄な作業を減らし、メモリの容量の限界を乗り越える手助けをします。
例えば、エージェント型AIや長い文章をAIに読み込ませる場合、Dynamoは以前のステップで得た最も関係の深い「短期記憶」をすでに持っているGPUにリクエストを送ることで、効率的な処理を実現します。
広がるNVIDIA推論プラットフォームの採用
NVIDIAは、DynamoとNVIDIA TensorRT-LLMというライブラリの技術を、LangChain、llm-d、LMCache、SGLang、vLLMといった主要なオープンソースのAIフレームワークに組み込んでいます。これにより、AI開発の環境がさらに進化しています。
NVIDIAの推論プラットフォームは、すでに多くの企業やサービスで使われています。主な採用企業やパートナーは以下の通りです。
-
クラウドサービスプロバイダー
-
NVIDIAクラウドパートナー
-
CoreWeave
-
Crusoe
-
DigitalOcean
-
Gcore
-
GMI Cloud
-
Lightning AI
-
Nebius
-
Nscale
-
Together AI
-
Vultr
-
AIネイティブ企業
-
Cursor
-
Hebbia
-
Perplexity
-
-
推論エンドポイントプロバイダー
-
Baseten
-
Deep Infra
-
Fireworks
-
-
グローバル企業
-
Amazon
-
AstraZeneca
-
BlackRock
-
ByteDance
-
Coupang
-
Instacart
-
Meituan
-
PayPal
-
Pinterest
-
Shopee
-
ソフトバンク株式会社
-
CoreWeaveのChen Goldberg氏は、AIが実験段階から本格的な運用へと移行する中で、基盤となるインフラも同様に柔軟である必要があると述べています。NVIDIA Dynamoのサポートにより、複雑なAIエージェントをスムーズかつ安定して展開できる環境が提供され、業界の最も高度なAIワークロードを世界中で運用するための耐久性と高性能な仕組みが実現するとコメントしています。
提供開始と詳細情報
Dynamo 1.0は、2026年3月16日より、世界中の開発者向けに提供が開始されています。
詳細や導入方法については、以下のウェブページをご確認ください。


