<p><meta/>
{
“role”: “Senior Cloud Architect”,
“focus”: “Microsoft Purview Insider Risk Management / Risky AI Usage”,
“status”: “Ready”,
“context”: “Enterprise Security and Compliance”,
“update_date”: “2024-05-22”
}
</p>
<p>本記事は<strong>Geminiの出力をプロンプト工学で整理した業務ドラフト(未検証)</strong>です。</p>
<h1 class="wp-block-heading">Microsoft Purviewで実現する「AIの不適切利用(Risky AI usage)」監視とリスク管理の実装</h1>
<h2 class="wp-block-heading">【導入】</h2>
<p>AI導入後の機密情報流出や不適切プロンプト利用を検知し、組織のガバナンスと安全なAI活用を両立するインフラ設計を解説します。</p>
<h2 class="wp-block-heading">【アーキテクチャ設計】</h2>
<p>Microsoft Purview Insider Risk Management(内部リスク管理)を中心とした、AI利用状況の監視アーキテクチャを以下に設計します。</p>
<div class="wp-block-merpress-mermaidjs diagram-source-mermaid"><pre class="mermaid">
graph TD
A["ユーザー"] -->|AI利用: Copilot / ChatGPT等| B("Microsoft 365 / Web")
B -->|アクティビティログ| C["Microsoft Purview Audit"]
C -->|インジケーター収集| D{"Insider Risk Management"}
D -->|AI不適切利用ポリシー| E["アラート / ケース管理"]
E -->|通知| F["セキュリティ/コンプライアンス管理者"]
subgraph "検出エンジン"
D1["機密データのAI送信"]
D2["プロンプト内の不適切表現"]
D3["大量の機密ファイル要約"]
end
D --- D1
D --- D2
D --- D3
</pre></div>
<h3 class="wp-block-heading">コンポーネント解説</h3>
<ul class="wp-block-list">
<li><p><strong>Microsoft Purview Audit</strong>: Copilot for Microsoft 365やWeb上でのAI利用アクティビティをキャプチャします。</p></li>
<li><p><strong>Insider Risk Management (IRM)</strong>: AI固有のインジケーター(「Risky AI usage」)を使用して、ユーザーの行動文脈に基づいたリスクを評価します。</p></li>
<li><p><strong>Microsoft Defender for Cloud Apps</strong>: サードパーティAI(ChatGPT, Claude等)のシャドーIT利用やデータ漏洩を制御・監視するゲートウェイとして機能します。</p></li>
</ul>
<h2 class="wp-block-heading">【実装・デプロイ手順】</h2>
<p>AIリスク監視を有効化するための初期設定(PowerShellによるロール割り当ておよび設定)の手順を示します。</p>
<h3 class="wp-block-heading">1. 管理権限の付与 (PowerShell)</h3>
<p>Insider Risk Managementの操作には専用の役割(Role Group)が必要です。</p>
<div class="codehilite">
<pre data-enlighter-language="generic"># Microsoft Graph / Exchange Online PowerShell を使用
# ユーザーを Insider Risk Management 管理者グループに追加
$UserUPN = "admin@yourtenant.onmicrosoft.com"
$RoleGroup = "Insider Risk Management"
Add-RoleGroupMember -Identity $RoleGroup -Member $UserUPN
</pre>
</div>
<h3 class="wp-block-heading">2. IRMのAIインジケーター有効化(構成のポイント)</h3>
<p>現在、GUI(Microsoft Purviewポータル)での設定が主流ですが、ポリシー設定の前提となる「インジケーター」の選択が重要です。</p>
<ul class="wp-block-list">
<li><p><strong>設定場所</strong>: [内部リスク管理] > [設定] > [インジケーター] > [Microsoft 365 インジケーター]</p></li>
<li><p><strong>選択項目</strong>: </p>
<ul>
<li><p>「Copilot での機密データを含むプロンプトの入力」</p></li>
<li><p>「Copilot での機密情報の要約/抽出」</p></li>
</ul></li>
</ul>
<h3 class="wp-block-heading">3. AIリスクポリシーの作成</h3>
<p>BicepやTerraformでの直接的なポリシー定義はGraph APIの限定的なサポート状況によりますが、論理構成は以下の通りです。</p>
<div class="codehilite">
<pre data-enlighter-language="generic"># ポリシー構成イメージ (論理設計)
PolicyName: "AI-Usage-Governance-Policy"
IndicatorSet:
- Office365: CopilotInteractionWithSensitiveData
- Browsing: WebAIUsage (Defender for Cloud Apps連携)
RiskScoreThreshold: High
Notice: EmailToComplianceManager
</pre>
</div>
<h2 class="wp-block-heading">【アイデンティティとセキュリティ】</h2>
<ul class="wp-block-list">
<li><p><strong>RBACの最小権限原則</strong>: 「Insider Risk Management Investigators」役割を調査員に付与し、不必要な機密情報へのアクセスを制限します。</p></li>
<li><p><strong>匿名化(プライバシー保護)</strong>: IRMの設定で「匿名化されたユーザー名を表示する」を有効にし、アラート段階では個人を特定せず、調査が必要な場合のみエスカレーションする運用を推奨します。</p></li>
<li><p><strong>条件付きアクセス</strong>: Purviewポータルへのアクセスには、フィッシング耐性のあるMFA(FIDO2等)と管理用端末(合致したデバイス)を必須条件とします。</p></li>
</ul>
<h2 class="wp-block-heading">【運用・コスト最適化】</h2>
<ul class="wp-block-list">
<li><p><strong>ライセンス要件</strong>: この機能には <strong>Microsoft 365 E5 / E5 Compliance / E5 Insider Risk Management</strong> アドオンのいずれかが必要です。</p></li>
<li><p><strong>可観測性</strong>: </p>
<ul>
<li><p><strong>Microsoft Sentinel 連携</strong>: IRMのアラートをSentinelへストリーミングし、他のセキュリティログ(EDR/Network)と相関分析を行います。</p></li>
<li><p><strong>Log Analytics</strong>: 長期保存が必要な場合は、PurviewのログをAzure Log Analyticsへエクスポートする構成をとります。</p></li>
</ul></li>
<li><p><strong>コスト削減</strong>: すべてのユーザーを監視対象にせず、特権ユーザーや機密情報を扱う部署にターゲットを絞ることで、アラート精査の運用コストを削減できます。</p></li>
</ul>
<h2 class="wp-block-heading">【まとめ】</h2>
<ol class="wp-block-list">
<li><p><strong>ライセンスの確認</strong>: AIリスク監視はE5層の機能であるため、既存のSKUを確認し、必要に応じてアドオンを検討してください。</p></li>
<li><p><strong>プライバシーへの配慮</strong>: 日本国内の運用では、従業員監視に関する就業規則の整備と、Purview内での「ユーザー名の匿名化設定」が導入成功の鍵となります。</p></li>
<li><p><strong>誤検知(False Positive)の許容</strong>: AI利用は業務効率化と表裏一体です。厳しすぎるポリシーは生産性を阻害するため、まずは「監視のみ」から開始し、段階的にアラート閾値を調整してください。</p></li>
</ol>
{
“role”: “Senior Cloud Architect”,
“focus”: “Microsoft Purview Insider Risk Management / Risky AI Usage”,
“status”: “Ready”,
“context”: “Enterprise Security and Compliance”,
“update_date”: “2024-05-22”
}
本記事はGeminiの出力をプロンプト工学で整理した業務ドラフト(未検証)です。
Microsoft Purviewで実現する「AIの不適切利用(Risky AI usage)」監視とリスク管理の実装
【導入】
AI導入後の機密情報流出や不適切プロンプト利用を検知し、組織のガバナンスと安全なAI活用を両立するインフラ設計を解説します。
【アーキテクチャ設計】
Microsoft Purview Insider Risk Management(内部リスク管理)を中心とした、AI利用状況の監視アーキテクチャを以下に設計します。
graph TD
A["ユーザー"] -->|AI利用: Copilot / ChatGPT等| B("Microsoft 365 / Web")
B -->|アクティビティログ| C["Microsoft Purview Audit"]
C -->|インジケーター収集| D{"Insider Risk Management"}
D -->|AI不適切利用ポリシー| E["アラート / ケース管理"]
E -->|通知| F["セキュリティ/コンプライアンス管理者"]
subgraph "検出エンジン"
D1["機密データのAI送信"]
D2["プロンプト内の不適切表現"]
D3["大量の機密ファイル要約"]
end
D --- D1
D --- D2
D --- D3
コンポーネント解説
Microsoft Purview Audit: Copilot for Microsoft 365やWeb上でのAI利用アクティビティをキャプチャします。
Insider Risk Management (IRM): AI固有のインジケーター(「Risky AI usage」)を使用して、ユーザーの行動文脈に基づいたリスクを評価します。
Microsoft Defender for Cloud Apps: サードパーティAI(ChatGPT, Claude等)のシャドーIT利用やデータ漏洩を制御・監視するゲートウェイとして機能します。
【実装・デプロイ手順】
AIリスク監視を有効化するための初期設定(PowerShellによるロール割り当ておよび設定)の手順を示します。
1. 管理権限の付与 (PowerShell)
Insider Risk Managementの操作には専用の役割(Role Group)が必要です。
# Microsoft Graph / Exchange Online PowerShell を使用
# ユーザーを Insider Risk Management 管理者グループに追加
$UserUPN = "admin@yourtenant.onmicrosoft.com"
$RoleGroup = "Insider Risk Management"
Add-RoleGroupMember -Identity $RoleGroup -Member $UserUPN
2. IRMのAIインジケーター有効化(構成のポイント)
現在、GUI(Microsoft Purviewポータル)での設定が主流ですが、ポリシー設定の前提となる「インジケーター」の選択が重要です。
3. AIリスクポリシーの作成
BicepやTerraformでの直接的なポリシー定義はGraph APIの限定的なサポート状況によりますが、論理構成は以下の通りです。
# ポリシー構成イメージ (論理設計)
PolicyName: "AI-Usage-Governance-Policy"
IndicatorSet:
- Office365: CopilotInteractionWithSensitiveData
- Browsing: WebAIUsage (Defender for Cloud Apps連携)
RiskScoreThreshold: High
Notice: EmailToComplianceManager
【アイデンティティとセキュリティ】
RBACの最小権限原則: 「Insider Risk Management Investigators」役割を調査員に付与し、不必要な機密情報へのアクセスを制限します。
匿名化(プライバシー保護): IRMの設定で「匿名化されたユーザー名を表示する」を有効にし、アラート段階では個人を特定せず、調査が必要な場合のみエスカレーションする運用を推奨します。
条件付きアクセス: Purviewポータルへのアクセスには、フィッシング耐性のあるMFA(FIDO2等)と管理用端末(合致したデバイス)を必須条件とします。
【運用・コスト最適化】
【まとめ】
ライセンスの確認: AIリスク監視はE5層の機能であるため、既存のSKUを確認し、必要に応じてアドオンを検討してください。
プライバシーへの配慮: 日本国内の運用では、従業員監視に関する就業規則の整備と、Purview内での「ユーザー名の匿名化設定」が導入成功の鍵となります。
誤検知(False Positive)の許容: AI利用は業務効率化と表裏一体です。厳しすぎるポリシーは生産性を阻害するため、まずは「監視のみ」から開始し、段階的にアラート閾値を調整してください。
コメント