オンデバイス生成AI処理への移行が進展――データセンターの電力制約が背景:Gartner Insights Pickup(396)
生成AIや大規模言語モデル(LLM)の利用拡大により、コンピューティング能力の需要が増大し、データセンターの運営を圧迫している。生成AIの電力要件の増加は、IT部門にとっても重大な制約となりつつある。生成AI関連の製品やアプリケーションを展開する上でネックになる場合があるからだ。
生成AIや大規模言語モデル(LLM)の急速な利用拡大により、コンピューティング能力の需要がかつてなく増大している。これらのAIモデルの複雑化もそれに拍車を掛けており、こうした需要を満たすために必要な電力の増加が、データセンターの運営を大きく圧迫している。
Gartnerは、AIに最適化されたサーバをデータセンターで稼働させるのに必要な電力が、2027年には年間500テラワット時(TWh)と、2023年の2倍以上に達すると予測している。こうした生成AIの電力需要の増大は、データセンターの運用において、コストやパフォーマンス、持続可能性に影響を与える大きな課題となっている。
Gartnerは、2027年までに既存のAIデータセンターの40%が、電力供給の制約に直面すると予測している。この状況はデータセンター自体だけでなく、その顧客やエンドユーザーにも影響を及ぼす。顧客やエンドユーザーはコスト増やパフォーマンス低下に見舞われる可能性がある。
生成AIの電力要件の増加は、IT部門にとっても重大な制約となりつつある。生成AI関連の製品やアプリケーションを展開する上でネックになる場合があるからだ。
オンデバイス生成AI処理への移行
データセンターの消費電力増加に伴う運用リスクにより、製品リーダーは将来、データセンターから、より多くのAI推論ワークロードをエンドポイントデバイスに移行することを検討せざるを得なくなるだろう。従来、オンデバイスでの生成AI処理には、応答性とデータプライバシーの向上という2つの強力な動機がある。現在ではデータセンターの電力制約という切迫した理由が加わり、オンデバイス生成AI処理はさらに魅力的なソリューションとなっている。
Gartnerは2026年までに、クラウドよりもオンデバイスで処理される生成AIクエリの方が多くなると予測している。これはAI戦略における大きな転換を示している。
オンデバイス生成AI処理に必要な主要技術の再設計
製品リーダーは状況変化を踏まえ、AI戦略を見直してこの転換に対応しなければならない。オンデバイスで生成AI処理ワークロードを分散するために、最適な推論アプローチを検討することが極めて重要だ。
組織はオンデバイス生成AI処理を採用することで、データセンターの電力制約に関連するリスクを軽減しながら、全体的なユーザー体験を向上させられる。この戦略転換により、現在の電力課題に対処するだけでなく、急速に進化するAI環境の中で、将来の需要により良く対応する態勢を整えられる。
実際、データプライバシーの強化や低遅延、より迅速な応答など、ユーザー体験の向上に対するニーズに後押しされ、エンドポイントデバイス(スマートフォン、PC、タブレット、XR〈クロスリアリティー〉ヘッドセット〈※〉、ウェアラブルデバイス、車両、ロボティクス、IoTデバイスなど)で生成AI処理をする傾向が高まっている。
ただし、オンデバイス生成AI処理は、非常に高い電力効率を必要とする。エンドポイントデバイスはフォームファクタの制約から、利用可能な電力が限られているからだ。また、生成AI機能を追加するために、エンドポイントデバイスの駆動時間とバッテリー寿命を犠牲にしてはならない。これらのことから、オンデバイス生成AI処理のためには半導体やバッテリー、AIモデル開発の複合的かつ大幅な改善が必要になる。
- 半導体
リアルタイム処理と低遅延の実現には、電力効率の高い半導体チップが不可欠だ。オンデバイス生成AIには、AI専用プロセッサや省電力メモリチップの他、ニューラルプロセッシングユニット(NPU)が統合されたアプリケーションプロセッサやマイクロコントローラーユニット(MCU)が望ましい。
窒化ガリウム(GaN)などの広帯域ギャップ半導体は、急速充電器の電力変換に重要な役割を果たし、ユーザー体験を大幅に向上させる。ローカル生成AI処理はバッテリー寿命を急速に消耗させる可能性があるため、急速充電器は、バッテリー駆動のエンドポイントデバイスを素早く充電するために不可欠であり、スマートフォンやPCなどパーソナルデバイスにおける生成AIのユーザー体験の重要な要素となる。
- バッテリー
スマートフォンやPC、XRヘッドセット、ウェアラブルデバイスといったエンドポイントデバイスのほとんどはバッテリー駆動であり、オンデバイス生成AI処理はこれらのデバイスの電力をより多く消費する。より長いバッテリー駆動時間を確保するには、固体リチウムイオン電池のような電力密度の高いバッテリーが不可欠となる。
- AIモデル
エンドポイントデバイスでのローカル処理には、より小規模なパラメーターセットを持つカスタムAIモデルが必要になる。パラメーターがより少ない軽量LLMは、特定のタスクや分野での使用に向いている。計算要件がより低いため、標準的な(重い)LLMの使用が現実的ではないエンドポイントデバイスでも、適切に動作する。
出典:Data Center Power Constraints Drive Shift to On-Device GenAI Processing(Gartner)
※この記事は、2025年2月に執筆されたものです。
Copyright © ITmedia, Inc. All Rights Reserved.