企業は「生成AIのデータローカライズ問題」にどう対処すべきか Gartnerがリスクを軽減するための戦略的アクションを解説:企業の機密情報が国境を越えて流出する可能性が
Gartnerは2025年2月17日、「生成AIの誤用によるデータ侵害のリスク」に関する見解を発表した。同社は「現状のままでは市場が分断し、AIの拡張性や利点が制限される恐れがある」と注意を促している。
Gartnerは2025年2月17日(米国時間)、「生成AI(人工知能)の誤用によるデータ侵害のリスク」に関する見解を発表した。同社は、2027年までに、AI関連のデータ侵害の40%以上が「国境を越えた生成AIの不適切な使用によって引き起こされる」と予測している。
意図しない“国境を越えたデータ転送”が発生する可能性がある
生成AI技術はエンドユーザーに急速に普及しており、そのペースは、データガバナンスやセキュリティ対策の整備スピードを上回っている。これらの技術は中央集中型(特定の場所にデータを集める)という特性があるため、データローカライズ(自国内でデータを保持、管理すること)が十分にできないのではないかという懸念が高まっているという。
「明確な説明やアナウンスなしに、生成AI機能が既存のIT製品に組み込まれた場合、不十分な監視によって意図しない“国境を越えたデータ転送”が発生することがある」と、ガートナーのVPアナリストであるヨルグ・フリッチ氏は指摘する。
「企業は、生成AIツールによって、従業員が作成するコンテンツに変化が起きていることに気付き始めている。これらのツールは、承認された業務アプリケーションに対して使われることもあるが、未知の場所にホストされたAIツールやAPIに機密性の高いプロンプトが送信されると、セキュリティリスクが生じる可能性がある」
「グローバルなAI標準」が必須
Gartnerは、AIとデータガバナンスに関する、グローバルで一貫した標準やベストプラクティスを確立させなければ「市場が分断し、企業は地域ごとに戦略を策定しなければならない事態になる」と指摘。そうなれば、企業はグローバルに事業を拡大することが難しくなり、AI製品やサービスの恩恵を十分に享受できなくなる可能性がある。
「地域ごとにAIポリシーを変えてしまうと、データフローの管理や品質の維持が複雑化する。これは業務の非効率性につながる恐れがある」と、フリッチ氏は指摘する
「企業は、機密データを保護してコンプライアンスを確保するために、高度なAIガバナンスとセキュリティへの投資を強化する必要がある。この需要の高まりによって、AIセキュリティやガバナンス、コンプライアンスサービス市場は成長するだろう。また、それに伴い、AIプロセスの透明性と制御を強化する技術ソリューションの発展も加速すると考えられる」
「AIガバナンスが世界的な義務となる前に行動すべき」
Gartnerは「2027年までに、AIガバナンスが世界中の主権国家におけるAI関連法規や規制の必須要件となる」と予測している。
「必要なガバナンスモデルと管理体制を統合できない組織は、競争上の不利な立場に置かれる可能性がある。特に、既存のデータガバナンスフレームワークを迅速に拡張するためのリソースが不足している企業は、その影響を受けやすいだろう」
AI関連のデータ侵害、特に国境を越えた生成AIの誤用によるリスクを軽減し、コンプライアンスを確保するために、Gartnerは企業に対し、以下の戦略的行動を推奨している。
データガバナンスの強化
国際規制への準拠を確保しつつ、自社のデータガバナンスフレームワークに、AIが処理するデータに関するガイドラインを追加する。定期的な「プライバシー影響評価」(PIA)にデータの系統管理(データリネージ)とデータ転送影響の評価を組み込むことで、意図しない“国境を越えたデータ転送”を監視し、コンプライアンスを維持できる。
ガバナンス委員会の設立
AIの管理体制を強化し、AI導入やデータ処理に関する透明性のあるコミュニケーションを確保するために、専門のガバナンス委員会を設立する。委員会は技術的監督、リスクとコンプライアンス管理、コミュニケーションと意思決定の報告を担当する必要がある。
データセキュリティの強化
機密データを保護するために、高度な技術、暗号化、匿名化を活用する。例えば、特定の地理的地域における「信頼できる実行環境」(Trusted Execution Environments)を検証し、データがその地域外に出る必要がある場合は「差分プライバシー」(Differential Privacy)などの高度な匿名化技術を適用する。
TRiSM製品への投資
AI向けの「TRiSM」(信頼/リスク/セキュリティ管理)関連製品や機能への投資計画を立て、予算を確保する。これには、AIガバナンス、データセキュリティガバナンス、プロンプトのフィルタリングと編集、非構造化データの合成生成といった機能が含まれる。Gartnerは「2026年までに『AI TRiSM』管理を適用する企業は、不正確または不正な情報の利用を50%以上削減し、それに伴う誤った意思決定を抑制できる」と予測している。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
生成AI流行の影に何がある? 「AI botとクローラーのトラフィック傾向」などをCloudflareが公開
Cloudflareは、生成AIに関するさまざまなメトリクスを参照できるWebページ「AI Insights」を新たに公開した。AI分野の最新傾向や情報を提供し、「AIの変化と進化の様子をより理解できるようにする」としている。Androidアプリに生成AI機能を追加する際に注意すべき点 Googleが「Firebase向けVertex AI」で説明
Googleは2025年1月29日、「Firebase SDK」の「Vertex AI」を使用する際の注意点をまとめたブログエントリを公開した。「Gemini」を活用することで、ユーザーエンゲージメントを高め、パーソナライズされた体験を提供する新機能を開発、導入できるという。生成AIのセキュリティに関する規則が策定されている企業は20%未満 IPAが調査結果を発表
IPAは、「AI利用時の脅威、リスク調査報告書」を公開した。業務でAIを利用している人のうち、6割がAIのセキュリティに関して脅威を感じており、7割がセキュリティ対策は重要だと考えていることが分かった。