Microsoft Purviewで実現する「AIの不適切利用(Risky AI usage)」監視とリスク管理の実装

Tech

{ “role”: “Senior Cloud Architect”, “focus”: “Microsoft Purview Insider Risk Management / Risky AI Usage”, “status”: “Ready”, “context”: “Enterprise Security and Compliance”, “update_date”: “2024-05-22” }

本記事はGeminiの出力をプロンプト工学で整理した業務ドラフト(未検証)です。

Microsoft Purviewで実現する「AIの不適切利用(Risky AI usage)」監視とリスク管理の実装

【導入】

AI導入後の機密情報流出や不適切プロンプト利用を検知し、組織のガバナンスと安全なAI活用を両立するインフラ設計を解説します。

【アーキテクチャ設計】

Microsoft Purview Insider Risk Management(内部リスク管理)を中心とした、AI利用状況の監視アーキテクチャを以下に設計します。

graph TD
    A["ユーザー"] -->|AI利用: Copilot / ChatGPT等| B("Microsoft 365 / Web")
    B -->|アクティビティログ| C["Microsoft Purview Audit"]
    C -->|インジケーター収集| D{"Insider Risk Management"}
    D -->|AI不適切利用ポリシー| E["アラート / ケース管理"]
    E -->|通知| F["セキュリティ/コンプライアンス管理者"]

    subgraph "検出エンジン"
    D1["機密データのAI送信"]
    D2["プロンプト内の不適切表現"]
    D3["大量の機密ファイル要約"]
    end
    D --- D1
    D --- D2
    D --- D3

コンポーネント解説

  • Microsoft Purview Audit: Copilot for Microsoft 365やWeb上でのAI利用アクティビティをキャプチャします。

  • Insider Risk Management (IRM): AI固有のインジケーター(「Risky AI usage」)を使用して、ユーザーの行動文脈に基づいたリスクを評価します。

  • Microsoft Defender for Cloud Apps: サードパーティAI(ChatGPT, Claude等)のシャドーIT利用やデータ漏洩を制御・監視するゲートウェイとして機能します。

【実装・デプロイ手順】

AIリスク監視を有効化するための初期設定(PowerShellによるロール割り当ておよび設定)の手順を示します。

1. 管理権限の付与 (PowerShell)

Insider Risk Managementの操作には専用の役割(Role Group)が必要です。

# Microsoft Graph / Exchange Online PowerShell を使用


# ユーザーを Insider Risk Management 管理者グループに追加

$UserUPN = "admin@yourtenant.onmicrosoft.com"
$RoleGroup = "Insider Risk Management"

Add-RoleGroupMember -Identity $RoleGroup -Member $UserUPN

2. IRMのAIインジケーター有効化(構成のポイント)

現在、GUI(Microsoft Purviewポータル)での設定が主流ですが、ポリシー設定の前提となる「インジケーター」の選択が重要です。

  • 設定場所: [内部リスク管理] > [設定] > [インジケーター] > [Microsoft 365 インジケーター]

  • 選択項目:

    • 「Copilot での機密データを含むプロンプトの入力」

    • 「Copilot での機密情報の要約/抽出」

3. AIリスクポリシーの作成

BicepやTerraformでの直接的なポリシー定義はGraph APIの限定的なサポート状況によりますが、論理構成は以下の通りです。

# ポリシー構成イメージ (論理設計)

PolicyName: "AI-Usage-Governance-Policy"
IndicatorSet:

  - Office365: CopilotInteractionWithSensitiveData

  - Browsing: WebAIUsage (Defender for Cloud Apps連携)
RiskScoreThreshold: High
Notice: EmailToComplianceManager

【アイデンティティとセキュリティ】

  • RBACの最小権限原則: 「Insider Risk Management Investigators」役割を調査員に付与し、不必要な機密情報へのアクセスを制限します。

  • 匿名化(プライバシー保護): IRMの設定で「匿名化されたユーザー名を表示する」を有効にし、アラート段階では個人を特定せず、調査が必要な場合のみエスカレーションする運用を推奨します。

  • 条件付きアクセス: Purviewポータルへのアクセスには、フィッシング耐性のあるMFA(FIDO2等)と管理用端末(合致したデバイス)を必須条件とします。

【運用・コスト最適化】

  • ライセンス要件: この機能には Microsoft 365 E5 / E5 Compliance / E5 Insider Risk Management アドオンのいずれかが必要です。

  • 可観測性:

    • Microsoft Sentinel 連携: IRMのアラートをSentinelへストリーミングし、他のセキュリティログ(EDR/Network)と相関分析を行います。

    • Log Analytics: 長期保存が必要な場合は、PurviewのログをAzure Log Analyticsへエクスポートする構成をとります。

  • コスト削減: すべてのユーザーを監視対象にせず、特権ユーザーや機密情報を扱う部署にターゲットを絞ることで、アラート精査の運用コストを削減できます。

【まとめ】

  1. ライセンスの確認: AIリスク監視はE5層の機能であるため、既存のSKUを確認し、必要に応じてアドオンを検討してください。

  2. プライバシーへの配慮: 日本国内の運用では、従業員監視に関する就業規則の整備と、Purview内での「ユーザー名の匿名化設定」が導入成功の鍵となります。

  3. 誤検知(False Positive)の許容: AI利用は業務効率化と表裏一体です。厳しすぎるポリシーは生産性を阻害するため、まずは「監視のみ」から開始し、段階的にアラート閾値を調整してください。

ライセンス:本記事のテキスト/コードは特記なき限り CC BY 4.0 です。引用の際は出典URL(本ページ)を明記してください。
利用ポリシー もご参照ください。

コメント

タイトルとURLをコピーしました