Microsoft Purviewによる「Risky AI usage」監視とガバナンスの実装

Tech

[METADATA] author: Cloud Architect category: Security & Compliance service: Microsoft Purview focus: Insider Risk Management, Generative AI Governance [/METADATA]

本記事はGeminiの出力をプロンプト工学で整理した業務ドラフト(未検証)です。

Microsoft Purviewによる「Risky AI usage」監視とガバナンスの実装

【導入】 生成AI利用時の機密情報流出や不適切利用を、Insider Risk Managementの専用テンプレートを用いて可視化・制御する設計を提示します。

【アーキテクチャ設計】 本ソリューションは、Microsoft 365 エンドポイント、Microsoft Defender for Cloud Apps、およびMicrosoft Purviewの各シグナルを統合し、ユーザーのAI利用行動を多角的に分析します。

graph TD
    subgraph "Endpoints & Traffic"
        A["User Device/Edge"] -->|Telemetry| B["Microsoft Defender for Endpoint"]
        A -->|Web Access| C["Microsoft Defender for Cloud Apps"]
    end

    subgraph "Microsoft Purview Control Plane"
        D["Insider Risk Management"]
        E["Risky AI usage Policy Template"]
        F["DLP / Content Explorer"]

        B -->|Signals| D
        C -->|AI App Activity| D
        D --> E
        E -->|Alerts| G["Compliance / Security Team"]
    end

    subgraph "Identity & Data"
        H["Entra ID"] -->|Identity Context| D
        I["M365 Data"] -->|Sensitivity Labels| F
    end

構成要素の解説

  1. Signals (収集層): Microsoft EdgeやDefender for Endpointから、ChatGPTやAzure OpenAI等のAIサービスへのアクセスログ、プロンプトに含まれる機密情報を収集します。

  2. Indicators (検知層): 「機密データのAIへの入力」「AIサイトへの過度なアクセス」など、AI利用に特化したインジケーターを有効化します。

  3. Policy (分析層): 「Risky AI usage」テンプレートにより、過去の行動ベースラインと比較した異常値や、組織のDLPポリシーに抵触する行動をスコアリングします。

【実装・デプロイ手順】 Insider Risk Managementの設定はPurviewコンソールが中心となりますが、初期の役割割り当てやインジケーターの有効化はMicrosoft Graph PowerShellで自動化・管理が可能です。

1. 必要なロールの割り当て

# Insider Risk Managementの管理者ロールを割り当て

$UserUPN = "admin@example.com"
$RoleName = "Insider Risk Management Admins"

# Microsoft Graph経由でロールグループを取得し、メンバーを追加


# (実際にはPurviewポータルの権限設定にて実施を推奨)

2. AIインジケーターの有効化(設定の構成)

Purviewポータルの「設定」>「インジケーター」にて以下を有効化する必要があります。

  • ブラウジングアクティビティ: AIサイトへの訪問。

  • Defender for Cloud Apps: 生成AIアプリ内での特定のアクティビティ(プロンプト送信等)。

3. ポリシーの作成 (Bicep/Terraform非対応領域のため論理定義)

「Risky AI usage」ポリシーテンプレートを選択し、以下の条件を組み込みます。

  • トリガー: ユーザーが機密情報を含むデータをAIサービスへ送信。

  • スコアリング: 組織の機密ラベル(Secret/Confidential)が付与されたファイルの文字列抽出。

【アイデンティティとセキュリティ】

  • 最小特権原則 (PoLP): Insider Risk Management Investigators ロールを使用し、アラートの調査担当者には必要最小限の権限のみを付与します。

  • プライバシー保護: デフォルトで「匿名化(Pseudonymization)」を有効にし、調査の最終段階までユーザー名を秘匿します。

  • 条件付きアクセス: 異常なAI利用が検知されたユーザーに対し、Entra IDの「ユーザーのリスク」レベルを動的に上昇させ、AIアプリへのアクセスを一時的に制限する自動連携(Defender for Cloud Apps経由)を推奨します。

【運用・コスト最適化】

  • ライセンス要件: 本機能には Microsoft 365 E5/G5/A5 または E3 + Microsoft 365 E5 Compliance アドオンが必要です。

  • 可観測性:

    • Log Analytics ワークスペースに診断設定をエクスポートし、KQLでAI利用のトレンドを可視化します。

    • InidicatorActivity テーブルをクエリし、誤検知(False Positive)を特定してしきい値を微調整します。

  • コスト最適化: 全ユーザーを一括で監視対象にせず、開発部門や法務部門など、高機密データを扱う特定の「優先ユーザー」から段階的に適用を開始することで、ノイズを抑制し運用負荷を軽減します。

【まとめ】

  1. AI特有のリスク可視化: 従来のDLPでは捉えきれなかった「プロンプト経由の機密流出」を、専用テンプレートで迅速に検知可能。

  2. プライバシーへの配慮: 調査者の権限分離と匿名化設定を必ず実施し、法的・倫理的な懸念を解消する。

  3. 運用の落とし穴: インジケーターを過剰に有効にするとアラート疲れ(Alert Fatigue)を招く。まずは重要な機密ラベルに関連するAI操作に絞り込んで展開すること。

ライセンス:本記事のテキスト/コードは特記なき限り CC BY 4.0 です。引用の際は出典URL(本ページ)を明記してください。
利用ポリシー もご参照ください。

コメント

タイトルとURLをコピーしました