NVIDIAがAI推論を効率化する「Dynamo 1.0」を発表 — 大規模AIの運用を最適化

NVIDIAは2026年3月16日、大規模なAI推論とエージェント型AIシステムに対応するオープンソースソフトウェア「NVIDIA Dynamo 1.0」の提供を開始しました。

NVIDIA Dynamo 1.0

AIファクトリーの「オペレーティングシステム」

「Dynamo 1.0」は、AIファクトリーにおける分散型の「オペレーティングシステム」として機能します。これは、コンピューターのOSがハードウェアとアプリケーションを調整するように、データセンター内のGPUやメモリリソースを効率的に管理し、複雑なAIの処理を最大限の効率で動かす役割を担います。

このシステムをNVIDIAの最新プラットフォーム「NVIDIA Blackwell」と組み合わせることで、クラウドサービスを提供する企業やAI技術を開発する企業、そして世界中の大企業は、これまでにない規模、効率、速さで高性能なAI推論を実現できるようになります。

推論パフォーマンスの向上とコスト削減

近年の業界の評価では、「Dynamo 1.0」が無料のオープンソースソフトウェアでありながら、NVIDIA Blackwell GPUの推論パフォーマンスを最大で7倍向上させることが示されています。これにより、数百万個のGPUにおけるトークン(AIが処理する情報の最小単位)のコストを削減し、企業がAIを活用して収益を上げる機会を増やすことが期待されます。

エージェント型AIシステムが実用化されるにつれて、データセンター内でAI推論を大規模に動かすことは、さまざまなサイズや形式、性能目標を持つリクエストが予測できない形で発生するため、リソースの管理が難しくなっています。「Dynamo 1.0」は、より高度な「交通整理」のような機能と、GPUと安価なストレージ間のデータ移動機能を加えることで、この課題に対応します。これにより、推論作業をGPU間で適切に分散し、無駄な作業を減らし、メモリの限界を緩和します。

広がるNVIDIA推論プラットフォームの採用

NVIDIAは、「Dynamo 1.0」と「NVIDIA TensorRT™-LLM」ライブラリの最適化を、LangChain、llm-d、LMCache、SGLang、vLLMといった主要なオープンソースフレームワークに組み込むことで、AIエコシステムの発展を加速させています。

NVIDIAの推論プラットフォームは、すでに多くの企業に採用され、その技術が統合されています。

  • クラウドサービスプロバイダー:

  • Amazon Web Services (AWS)

  • Microsoft Azure (Microsoft Azure)

  • Google Cloud (Google Cloud)

  • Oracle Cloud Infrastructure (OCI)

  • NVIDIAクラウドパートナー:

  • Alibaba Cloud (Alibaba Cloud)

  • CoreWeave

  • Crusoe

  • DigitalOcean

  • Gcore

  • GMI Cloud

  • Lightning AI

  • Nebius

  • Nscale

  • Together AI

  • Vultr

  • AIネイティブ企業:

  • Cursor

  • Hebbia

  • Perplexity

  • 推論エンドポイントプロバイダー:

  • Baseten

  • Deep Infra

  • Fireworks

  • グローバル企業:

  • Amazon

  • AstraZeneca

  • BlackRock

  • ByteDance

  • Coupang

  • Instacart

  • Meituan

  • PayPal

  • Pinterest

  • Shopee

  • ソフトバンク株式会社

提供開始について

「Dynamo 1.0」は、2026年3月16日より世界中の開発者向けに提供が開始されました。詳細な情報や導入方法については、以下のNVIDIAのウェブサイトで確認できます。

NVIDIAに関する詳細情報は、NVIDIAのウェブサイトをご覧ください。

×