「Azure OpenAI Service」は1日100の新規顧客を獲得――Microsoft、AIビジネスの現在地は:NVIDIA H100 GPU搭載VMが正式リリース
Microsoftは企業のAI活用を支援するAzure AIインフラストラクチャおよびサービスの新展開を発表した。発表されたのは、Azure AIインフラストラクチャに含まれる「ND H100 v5」仮想マシンシリーズの一般提供開始と、「Azure OpenAI Service」のグローバル展開だ。
Microsoftは2023年8月7日(米国時間)、企業のAI活用を支援するAzure AIインフラストラクチャおよびサービスの新展開を発表した。発表されたのは、Azure AIインフラストラクチャ(以下、Azure AIインフラ)に含まれる「ND H100 v5」仮想マシン(VM)シリーズの一般提供開始と、「Azure OpenAI Service」のグローバル展開だ。
Azure AIインフラは、開発者がAzureプラットフォーム上でAI(人工知能)ベースの次世代アプリケーションを構築するために必要なシステム、ツール、リソースを提供する。「ND H100 v5 VM」は、NVIDIAの最新GPUと低遅延ネットワーク技術を搭載している。Azure OpenAI Serviceは、Azureプラットフォーム上でOpenAIの最先端の大規模言語モデル(LLM)である「GPT-4」や「GPT-35-Turbo」などを利用できるサービスだ。
ND H100 v5 VMの一般提供開始
ND H100 v5 VMシリーズは、最先端のAIワークロードの飛躍的に増大する複雑性に対処するため、スーパーコンピューティングのパフォーマンスとスケーラビリティを提供してきたMicrosoftの幅広い経験を基に、綿密に設計されている。現在、米国東部と米国中南部のAzureリージョンで提供されている。
ND H100 v5 VMの主な機能は以下の通り。
- AIスーパーコンピューティングGPU:8基のNVIDIA H100 Tensor コア GPUを搭載。AIモデルのパフォーマンスを従来のVMよりも大幅に向上させ、企業に比類ない計算能力を提供する
- 次世代CPU:AIのトレーニングと推論にはCPU性能が非常に重要であることを踏まえ、VMの基盤として第4世代Intel Xeon Scalableプロセッサを採用した
- 低遅延ネットワーキング:GPU当たり400Gbps、VM当たり3.2Tbpsのクロスノード帯域幅を持つNVIDIA Quantum-2 ConnectX-7 InfiniBandを採用し、GPU間でシームレスなパフォーマンスを確保している
- ホストからGPUへのパフォーマンスの最適化:PCIe Gen5によってGPU当たり64GB/秒の帯域幅を提供し、CPUとGPUの間で大幅なパフォーマンスの優位性を実現する
- 大規模なメモリとメモリ帯域幅:DDR5メモリが高いデータ転送速度と効率性を実現する
こうしたND H100 v5 VMは、新しい8bitのFP8浮動小数点データ型を使用した場合、従来のVMでFP16を使用した場合に比べて、行列乗算演算を最大6倍高速化する。BLOOM 175BのようなLLMのエンドツーエンドのモデル推論でも、最大2倍の高速化を達成しており、AIアプリケーションのさらなる最適化を実現する可能性を示している。
Azure OpenAI Serviceのグローバル展開
Microsoftはオーストラリア東部、カナダ東部、米国東部2、東日本、英国南部の各リージョンで、Azure OpenAI Serviceの提供を開始し、強力な生成AI機能を求める企業へのリーチとサポートを拡大した。これまでの米国東部、フランス中部、米国中南部、西ヨーロッパの各リージョンを使用する企業に加えて、これらのリージョンを使用する企業も、GPT-4やGPT-35-Turboなど、OpenAIの最先端モデルを利用できるようになった。これらのモデルはコンテンツ生成、ドキュメントインテリジェンス、顧客サービスなど、幅広い分野に活用できるという。
Microsoftによると、Azure OpenAI Serviceの現在の顧客数は1万1000を超えており、前回の発表時から3倍近くに増えている。第3四半期(7〜9月期)は、毎日平均100の新規顧客を獲得しているという。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
画像生成AI「Stable Diffusion」の実行環境を構築するには? Dockerが解説
Dockerは「Stable Diffusion」の実行環境を容易に構築する方法として「Docker Desktop for Windows」および「Windows Subsystem for Linux 2(WSL2)」を活用した手順を解説した。「GitHub Copilot Chat」β版公開 Visual StudioやVS CodeでAIペアプログラミングを支援
GitHubは、Visual StudioとVisual Studio Code(VS Code)で利用可能な「GitHub Copilot Chat」のβ版をGitHub Copilot for Businessユーザー向けに公開した。Stack Overflow、開発者向けAIサービス「OverflowAI」を発表 VS Code向け拡張機能、Slackのチャットbotを提供へ
Stack Overflowは、開発者向けQ&Aサイトで蓄積した知識ベースなどをAI/MLを用いて活用し、開発者の問題解決を支援する「OverflowAI」を発表した。