<p>[METADATA]
author: Cloud Architect
category: Security & Compliance
service: Microsoft Purview
focus: Insider Risk Management, Generative AI Governance
[/METADATA]</p>
<p>本記事は<strong>Geminiの出力をプロンプト工学で整理した業務ドラフト(未検証)</strong>です。</p>
<h1 class="wp-block-heading">Microsoft Purviewによる「Risky AI usage」監視とガバナンスの実装</h1>
<p>【導入】
生成AI利用時の機密情報流出や不適切利用を、Insider Risk Managementの専用テンプレートを用いて可視化・制御する設計を提示します。</p>
<p>【アーキテクチャ設計】
本ソリューションは、Microsoft 365 エンドポイント、Microsoft Defender for Cloud Apps、およびMicrosoft Purviewの各シグナルを統合し、ユーザーのAI利用行動を多角的に分析します。</p>
<div class="wp-block-merpress-mermaidjs diagram-source-mermaid"><pre class="mermaid">
graph TD
subgraph "Endpoints & Traffic"
A["User Device/Edge"] -->|Telemetry| B["Microsoft Defender for Endpoint"]
A -->|Web Access| C["Microsoft Defender for Cloud Apps"]
end
subgraph "Microsoft Purview Control Plane"
D["Insider Risk Management"]
E["Risky AI usage Policy Template"]
F["DLP / Content Explorer"]
B -->|Signals| D
C -->|AI App Activity| D
D --> E
E -->|Alerts| G["Compliance / Security Team"]
end
subgraph "Identity & Data"
H["Entra ID"] -->|Identity Context| D
I["M365 Data"] -->|Sensitivity Labels| F
end
</pre></div>
<h3 class="wp-block-heading">構成要素の解説</h3>
<ol class="wp-block-list">
<li><p><strong>Signals (収集層)</strong>: Microsoft EdgeやDefender for Endpointから、ChatGPTやAzure OpenAI等のAIサービスへのアクセスログ、プロンプトに含まれる機密情報を収集します。</p></li>
<li><p><strong>Indicators (検知層)</strong>: 「機密データのAIへの入力」「AIサイトへの過度なアクセス」など、AI利用に特化したインジケーターを有効化します。</p></li>
<li><p><strong>Policy (分析層)</strong>: 「Risky AI usage」テンプレートにより、過去の行動ベースラインと比較した異常値や、組織のDLPポリシーに抵触する行動をスコアリングします。</p></li>
</ol>
<p>【実装・デプロイ手順】
Insider Risk Managementの設定はPurviewコンソールが中心となりますが、初期の役割割り当てやインジケーターの有効化はMicrosoft Graph PowerShellで自動化・管理が可能です。</p>
<h4 class="wp-block-heading">1. 必要なロールの割り当て</h4>
<div class="codehilite">
<pre data-enlighter-language="generic"># Insider Risk Managementの管理者ロールを割り当て
$UserUPN = "admin@example.com"
$RoleName = "Insider Risk Management Admins"
# Microsoft Graph経由でロールグループを取得し、メンバーを追加
# (実際にはPurviewポータルの権限設定にて実施を推奨)
</pre>
</div>
<h4 class="wp-block-heading">2. AIインジケーターの有効化(設定の構成)</h4>
<p>Purviewポータルの「設定」>「インジケーター」にて以下を有効化する必要があります。</p>
<ul class="wp-block-list">
<li><p><strong>ブラウジングアクティビティ</strong>: AIサイトへの訪問。</p></li>
<li><p><strong>Defender for Cloud Apps</strong>: 生成AIアプリ内での特定のアクティビティ(プロンプト送信等)。</p></li>
</ul>
<h4 class="wp-block-heading">3. ポリシーの作成 (Bicep/Terraform非対応領域のため論理定義)</h4>
<p>「Risky AI usage」ポリシーテンプレートを選択し、以下の条件を組み込みます。</p>
<ul class="wp-block-list">
<li><p><strong>トリガー</strong>: ユーザーが機密情報を含むデータをAIサービスへ送信。</p></li>
<li><p><strong>スコアリング</strong>: 組織の機密ラベル(Secret/Confidential)が付与されたファイルの文字列抽出。</p></li>
</ul>
<p>【アイデンティティとセキュリティ】</p>
<ul class="wp-block-list">
<li><p><strong>最小特権原則 (PoLP)</strong>: <code>Insider Risk Management Investigators</code> ロールを使用し、アラートの調査担当者には必要最小限の権限のみを付与します。</p></li>
<li><p><strong>プライバシー保護</strong>: デフォルトで「匿名化(Pseudonymization)」を有効にし、調査の最終段階までユーザー名を秘匿します。</p></li>
<li><p><strong>条件付きアクセス</strong>: 異常なAI利用が検知されたユーザーに対し、Entra IDの「ユーザーのリスク」レベルを動的に上昇させ、AIアプリへのアクセスを一時的に制限する自動連携(Defender for Cloud Apps経由)を推奨します。</p></li>
</ul>
<p>【運用・コスト最適化】</p>
<ul class="wp-block-list">
<li><p><strong>ライセンス要件</strong>: 本機能には <strong>Microsoft 365 E5/G5/A5</strong> または <strong>E3 + Microsoft 365 E5 Compliance</strong> アドオンが必要です。</p></li>
<li><p><strong>可観測性</strong>: </p>
<ul>
<li><p>Log Analytics ワークスペースに診断設定をエクスポートし、KQLでAI利用のトレンドを可視化します。</p></li>
<li><p><code>InidicatorActivity</code> テーブルをクエリし、誤検知(False Positive)を特定してしきい値を微調整します。</p></li>
</ul></li>
<li><p><strong>コスト最適化</strong>: 全ユーザーを一括で監視対象にせず、開発部門や法務部門など、高機密データを扱う特定の「優先ユーザー」から段階的に適用を開始することで、ノイズを抑制し運用負荷を軽減します。</p></li>
</ul>
<p>【まとめ】</p>
<ol class="wp-block-list">
<li><p><strong>AI特有のリスク可視化</strong>: 従来のDLPでは捉えきれなかった「プロンプト経由の機密流出」を、専用テンプレートで迅速に検知可能。</p></li>
<li><p><strong>プライバシーへの配慮</strong>: 調査者の権限分離と匿名化設定を必ず実施し、法的・倫理的な懸念を解消する。</p></li>
<li><p><strong>運用の落とし穴</strong>: インジケーターを過剰に有効にするとアラート疲れ(Alert Fatigue)を招く。まずは重要な機密ラベルに関連するAI操作に絞り込んで展開すること。</p></li>
</ol>
[METADATA]
author: Cloud Architect
category: Security & Compliance
service: Microsoft Purview
focus: Insider Risk Management, Generative AI Governance
[/METADATA]
本記事はGeminiの出力をプロンプト工学で整理した業務ドラフト(未検証)です。
Microsoft Purviewによる「Risky AI usage」監視とガバナンスの実装
【導入】
生成AI利用時の機密情報流出や不適切利用を、Insider Risk Managementの専用テンプレートを用いて可視化・制御する設計を提示します。
【アーキテクチャ設計】
本ソリューションは、Microsoft 365 エンドポイント、Microsoft Defender for Cloud Apps、およびMicrosoft Purviewの各シグナルを統合し、ユーザーのAI利用行動を多角的に分析します。
graph TD
subgraph "Endpoints & Traffic"
A["User Device/Edge"] -->|Telemetry| B["Microsoft Defender for Endpoint"]
A -->|Web Access| C["Microsoft Defender for Cloud Apps"]
end
subgraph "Microsoft Purview Control Plane"
D["Insider Risk Management"]
E["Risky AI usage Policy Template"]
F["DLP / Content Explorer"]
B -->|Signals| D
C -->|AI App Activity| D
D --> E
E -->|Alerts| G["Compliance / Security Team"]
end
subgraph "Identity & Data"
H["Entra ID"] -->|Identity Context| D
I["M365 Data"] -->|Sensitivity Labels| F
end
構成要素の解説
Signals (収集層): Microsoft EdgeやDefender for Endpointから、ChatGPTやAzure OpenAI等のAIサービスへのアクセスログ、プロンプトに含まれる機密情報を収集します。
Indicators (検知層): 「機密データのAIへの入力」「AIサイトへの過度なアクセス」など、AI利用に特化したインジケーターを有効化します。
Policy (分析層): 「Risky AI usage」テンプレートにより、過去の行動ベースラインと比較した異常値や、組織のDLPポリシーに抵触する行動をスコアリングします。
【実装・デプロイ手順】
Insider Risk Managementの設定はPurviewコンソールが中心となりますが、初期の役割割り当てやインジケーターの有効化はMicrosoft Graph PowerShellで自動化・管理が可能です。
1. 必要なロールの割り当て
# Insider Risk Managementの管理者ロールを割り当て
$UserUPN = "admin@example.com"
$RoleName = "Insider Risk Management Admins"
# Microsoft Graph経由でロールグループを取得し、メンバーを追加
# (実際にはPurviewポータルの権限設定にて実施を推奨)
2. AIインジケーターの有効化(設定の構成)
Purviewポータルの「設定」>「インジケーター」にて以下を有効化する必要があります。
3. ポリシーの作成 (Bicep/Terraform非対応領域のため論理定義)
「Risky AI usage」ポリシーテンプレートを選択し、以下の条件を組み込みます。
【アイデンティティとセキュリティ】
最小特権原則 (PoLP): Insider Risk Management Investigators ロールを使用し、アラートの調査担当者には必要最小限の権限のみを付与します。
プライバシー保護: デフォルトで「匿名化(Pseudonymization)」を有効にし、調査の最終段階までユーザー名を秘匿します。
条件付きアクセス: 異常なAI利用が検知されたユーザーに対し、Entra IDの「ユーザーのリスク」レベルを動的に上昇させ、AIアプリへのアクセスを一時的に制限する自動連携(Defender for Cloud Apps経由)を推奨します。
【運用・コスト最適化】
【まとめ】
AI特有のリスク可視化: 従来のDLPでは捉えきれなかった「プロンプト経由の機密流出」を、専用テンプレートで迅速に検知可能。
プライバシーへの配慮: 調査者の権限分離と匿名化設定を必ず実施し、法的・倫理的な懸念を解消する。
運用の落とし穴: インジケーターを過剰に有効にするとアラート疲れ(Alert Fatigue)を招く。まずは重要な機密ラベルに関連するAI操作に絞り込んで展開すること。
ライセンス:本記事のテキスト/コードは特記なき限り
CC BY 4.0 です。引用の際は出典URL(本ページ)を明記してください。
利用ポリシー もご参照ください。
コメント