Datadogが「AIエージェントの意志決定プロセス」を可視化するツールを発表:「多くの企業は自社のAIが何をしているのかよく分かっていない」
DataDogは、「LLM Observability」の新機能を発表した。AIエージェントの動作全体を可視化するとともに、AIエージェントの管理を一元化するためのガバナンス体制の構築も支援するという。
DataDogは2025年6月10日、「LLM Observability」の3つの新機能を発表した。同社はこれらの新機能で、AI(人工知能)エージェントの動作全体を可視化するとともに、LLM(大規模言語モデル)アプリケーションの品質を継続的に評価し、AIエージェントの管理を一元化するためのガバナンス体制の構築も支援するとしている。
「オブザーバビリティの手法をAI領域に導入した」
DataDogは「AIを取り込もうとする企業の多くは、AIシステムがどのように動作し、どのように処理しているのか、ビジネスにどのような価値を生み出しているのかについて、明確に把握できていない」と指摘する。
LLM Observabilityの新しい機能はこの課題に対処するものだ。同社によると、ログやメトリクスなどの外部出力を利用してシステム内部の状態を把握、分析するオブザーバビリティの手法をAI領域に導入。エージェント型AIシステムの挙動を監視し、AIエージェントの利用傾向やその影響を定量的に評価できるとしている。
意志決定の可視化、応答精度の評価、ガバナンスの強化に対応
追加された機能は「AI Agent Monitoring」「LLM Experiments」「AI Agents Console」の3つだ。
AI Agent Monitoringは「入力」「ツールの呼び出し」「他のエージェントとの連携」「出力」といったAIエージェントが意思決定する流れをグラフ化する。さらに、レイテンシの急増や誤ったツール呼び出し、無限ループといった挙動についても分析できる。
LLM Experimentsは、LLMアプリケーションに対して、プロンプトの変更やモデルの切り替え、アプリケーションの修正といった要素が処理性能にどのような影響を与えるかを検証する。本稼働環境から得たトレースデータ(入出力ペア)や、顧客がアップロードしたデータセットを基に実験を実施し、それらを比較することで応答精度やスループット、コストの改善効果を定量的に把握する。
AI Agents Consoleは、AIエージェントの動作を継続的に可視化し、利用実態や影響、ROI(投資対効果)を測定するとともに、セキュリティやコンプライアンス上のリスクを事前に検知する。外部のAIエージェントを重要な業務フローに組み込んだ際に、それらの挙動や利用状況、複数のシステムにまたがる権限の把握や、AIエージェント導入の最適化を可能にする。
なおLLM ExperimentsとAI Agents Consoleは、2025年6月時点ではPreview機能として提供されている。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
「実は知らない」とは言いづらい「AIエージェント」の基礎を把握する
IT用語の基礎の基礎を、初学者や非エンジニアにも分かりやすく解説する本連載、第30回は「AIエージェント」です。ITエンジニアの学習、エンジニアと協業する業務部門の仲間や経営層への解説にご活用ください。「現時点のエージェント型AIの多くはROIをもたらさない」 ガートナーが厳しく指摘するその根拠は?
ガートナージャパンは、2027年末までにエージェント型AIプロジェクトの40%以上が中止されるとの見解を発表した。進化が続くClaude Code リモートMCPだけでなく、VS Codeにも公式で対応
Anthropicのエージェント型コーディングツール「Claude Code」がリモートMCPサーバをサポートしたと発表した。同じタイミングで「Visual Studio Code」でClaude Codeの機能を直接利用できる拡張機能も公開されている。