NVIDIA、AIエージェントに重要なリーズニングも高速化する「Blackwell Ultra」を発表 その特徴と性能は?:リーズニングを支援するOSS「NVIDIA Dynamo」も
NVIDIAは、約1年前に発表したAIファクトリープラットフォーム「NVIDIA Blackwell」の後継となる「NVIDIA Blackwell Ultra」を発表した。
NVIDIAは2025年3月18日(米国時間、以下同)、約1年前に発表したAI(人工知能)ファクトリープラットフォーム「NVIDIA Blackwell」の後継となる「NVIDIA Blackwell Ultra」を発表した。
Blackwellアーキテクチャを基に構築されたBlackwell Ultraは、トレーニングとテストタイムスケーリング推論(※)を強化し、あらゆる組織におけるAIリーズニング、エージェント型AI、フィジカルAIなどのアプリケーションの高速化を可能にし、AIリーズニング時代への道を開くとしている。
(※)推論時により多くのコンピューティングを適用して精度を向上させる技術
Blackwell Ultraの特徴と性能
Blackwell Ultraには、「NVIDIA GB300 NVL72」ラックスケールソリューションと「NVIDIA HGX B300 NVL16」システムが含まれている。GB300 NVL72は、既存の「GB200 NVL72」の1.5倍のAIパフォーマンスを実現し、「NVIDIA Hopper」アーキテクチャに基づくシステムで構築されたAIファクトリーと比較して、Blackwellの収益機会を50倍に増加させる。
GB300 NVL72は、ラックスケールデザインで72基のBlackwell Ultra GPUと36基の「Arm Neoverse」ベースの「NVIDIA Grace CPU」を接続し、テストタイムスケーリング用に構築された単一の巨大なGPUとして機能する。GB300 NVL72により、AIモデルはプラットフォームの演算能力を活用して問題に対するさまざまな解決策を模索したり、複雑なリクエストを複数のステップに分解したりすることが可能になり、より質の高い応答を生成できる。
一方、HGX B300 NVL16は、Hopper世代と比較して、大規模言語モデル(LLM)での推論が11倍高速で、7倍の計算能力と4倍のメモリを搭載し、AIリーズニングなど最も複雑なワークロードで画期的なパフォーマンスを提供する。
Blackwell Ultraが最適なアプリケーション
NVIDIAによると、Blackwell Ultraプラットフォームは、以下のようなアプリケーションに最適だ。
エージェント型AI
高度なリーズニングと反復的な計画立案を実行し、複雑な多段階の問題を自律的に解決する。AIエージェントシステムは単に指示に従うだけでなく、特定の目標を達成するために論理的にリーズニングを行い、計画を立て、行動できる。
フィジカルAI
企業はロボットや自動運転車などのアプリケーションの大規模なトレーニング用に、フォトリアルなビデオをリアルタイムで生成できるようになる。
Blackwell Ultraのスケールアウトインフラおよびネットワーキング
Blackwell Ultraシステムは、「NVIDIA Spectrum-X」イーサネットおよび「NVIDIA Quantum-X800 InfiniBand」プラットフォームとシームレスに統合されており、「NVIDIA ConnectX-8 SuperNIC」を介してシステム内の各GPUに800Gbpsのデータスループットをもたらす。これにより、クラス最高のリモートダイレクトメモリアクセス(RDMA)が実現され、AIファクトリーやクラウドデータセンターがAIリーズニングモデルをボトルネックなしで処理できるようになる。
また、Blackwell Ultraシステムに搭載されている「NVIDIA BlueField-3 DPU」は、マルチテナントネットワーキング、GPUコンピューティングの弾力性、高速データアクセス、リアルタイムのサイバーセキュリティ脅威検出といった機能を実現する。
Blackwell Ultraを採用するパートナー企業
Blackwell Ultraをベースとした製品は、2025年後半に主要なコンピュータメーカーやクラウドサービスプロバイダーから順次提供される予定だ。
Blackwell Ultra製品をベースとしたサーバの提供を予定するコンピュータメーカーは、以下の通り。
Cisco Systems、Dell Technologies、Hewlett Packard Enterprise(HPE)、Lenovo、Supermicro、Aivres、ASRock Rack、ASUS、Eviden、Foxconn、GIGABYTE、Inventec、Pegatron、QCT、Wistron、Wiwynn。
Blackwell Ultra搭載インスタンスをいち早く提供する予定のクラウドサービスプロバイダー:Amazon Web Services(AWS)、とGPUクラウドプロバイダーは、以下の通り。
- クラウドサービスプロバイダー:AWS、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructure
- GPUクラウドプロバイダー:CoreWeave、Crusoe、Lambda、Nebius、Nscale、Yotta、YTL
AIのボトルネックを軽減する推論フレームワーク「NVIDIA Dynamo」
Blackwellの製品ポートフォリオは、フルスタックのNVIDIA AIプラットフォームによってサポートされている。NVIDIAが2025年3月18日に発表したオープンソース推論フレームワーク「NVIDIA Dynamo」は、リーズニングAIサービスを拡張する。テストタイムコンピューティングの最も効率的なソリューションを提供することで、応答時間を短縮してモデルのサービスコストを削減すると同時に、スループットを飛躍的に向上させる。
AIリーズニングを支援するソフトウェアであるNVIDIA Dynamoは、数千のGPUにわたる推論の通信をオーケストレーションして加速し、分散処理により、LLMの処理および生成フェーズを異なるGPU上に分離する。これにより、各フェーズを特定のニーズに合わせて個別に最適化して、GPUリソースを最大限に活用することが可能になる。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
NVIDIA、GeForce RTX 50シリーズのGPUを発表 RTX 4090を大幅に上回る性能の実力は? 搭載技術は?
NVIDIAは、開発者、ゲーマー、クリエイター向けのコンシューマーGPUである「GeForce RTX 50」シリーズを発表した。「NVIDIA Blackwell」アーキテクチャ、第5世代Tensor Core、第4世代RT Coreを搭載し、AI駆動型レンダリングにおいて画期的な進歩を実現したという。NVIDIAがBlackwell GPUを搭載した「デスクトップAIスーパーコンピューター」 2000億パラメーターのLLMを動かせる
NVIDIAが、開発者やデータサイエンティスト向けに、「Project DIGITS」と名付けたデスクトップPCを発表した。開発者は、デスクトップ上でLLMを動かし、AIモデルのプロトタイプ、ファインチューニング、推論、モデルのテストや評価、チャットbotのローカルでの稼働などができる。フィジカルAI開発支援プラットフォーム「NVIDIA Cosmos」は何に便利なのか? 4つの使用例で解説
NVIDIAは、自動運転車やロボットなどのフィジカルAIシステムの開発を促進するために構築された世界基盤モデルプラットフォーム「NVIDIA Cosmos」を発表した。