Microsoft Purviewによる「Risky AI usage」の監視:AI時代のインサイダーリスク対策

Tech

[META: STRATEGY=SENIOR_ARCHITECT; TOPIC=Microsoft_Purview_Insider_Risk_Management_Risky_AI_Usage; COMPLIANCE=E5_ADOPTION; FOCUS=DATA_SECURITY_GOVERNANCE; ]

本記事はGeminiの出力をプロンプト工学で整理した業務ドラフト(未検証)です。

Microsoft Purviewによる「Risky AI usage」の監視:AI時代のインサイダーリスク対策

【導入】 生成AIの利用拡大に伴う機密情報流出や不適切なプロンプト入力を検知し、組織全体のAIガバナンスと安全な利用を両立します。

【アーキテクチャ設計】 「Risky AI usage」は、Microsoft Purview AI HubおよびInsider Risk Management (IRM) の一部として機能します。Microsoft Defender for Cloud Apps (MDCA) や Endpoint DLP からのシグナルを統合し、ユーザーのAIインタラクション(プロンプト内容、機密データのアップロード)を分析してリスクスコアを算出します。

graph TD
    subgraph "External/SaaS"
        AI["ChatGPT / Claude / Others"]
    end
    subgraph "Microsoft 365 / Azure"
        User[User] -->|Prompt/Data| Copilot["Microsoft 365 Copilot"]
        User -->|Web Access| MDCA["Defender for Cloud Apps"]
        User -->|Device Signal| Endpoint["Endpoint DLP"]
    end
    subgraph "Microsoft Purview"
        AIHub["Purview AI Hub"]
        IRM["Insider Risk Management"]
        AIHub -->|Signals| IRM
        MDCA -->|Activity| AIHub
        Endpoint -->|Audit| AIHub
        IRM -->|Alert| Admin["Compliance Admin"]
    end
    MDCA -.->|Control| AI

この構成では、ユーザーが非認可のAIサイトへ機密情報をペーストしたり、Copilotに対して不適切なプロンプトを送信したりする挙動を、エージェントレス(またはEndpoint経由)でキャプチャし、IRMのポリシーエンジンで評価します。

【実装・デプロイ手順】 「Risky AI usage」のインジケーターを有効化し、ポリシーを適用する手順を以下に示します。※前提として Microsoft 365 E5/G5 ライセンスが必要です。

  1. インジケーターの有効化 (PowerShell) Microsoft Graph API を使用して IRM の設定を調整しますが、現在はポータルでの操作が主流です。以下は、監査ログが有効であることを確認するコマンドです。
# 監査ログの有効化確認

Connect-ExchangeOnline
Get-AdminAuditLogConfig | Select-Object UnifiedAuditLogIngestionEnabled

# Purview IRM インジケーター設定は現在UI(compliance.microsoft.com)が優先されます


# [設定] > [インサイダー リスク管理] > [インジケーター] > [ブラウザーとクラウドのアプリの活動] 


# 「生成 AI サイトへのデータ送信」をオンにする
  1. ポリシーの作成
  • Purview コンプライアンス ポータルにアクセス。

  • [インサイダー リスク管理] > [ポリシー] > [ポリシーの作成] を選択。

  • ポリシー テンプレートから 「Risky AI usage (プレビュー)」 を選択。

  • 監視対象ユーザーと、検知するインジケーター(機密情報のアップロード、不適切なプロンプト等)を指定。

【アイデンティティとセキュリティ】

  • 最小特権アクセス (RBAC):

    • Insider Risk Management Admins ロールを割り当てられたユーザーのみがアラートを閲覧可能。

    • プライバシー保護のため、既定ではユーザー名は匿名化(Pseudonymization)されます。調査が必要な場合のみ、特定の承認フローを経て実名を開示する運用を推奨。

  • 条件付きアクセス:

    • AIサイトへのアクセスを MDCA と連携させ、未承認 AI アプリへの機密データ送信をブロック。

【運用・コスト最適化】

  • 可観測性:

    • Microsoft Purview AI Hub のダッシュボードを利用し、組織内で「どのAIアプリが」「どの程度の頻度で」「どのような機密情報と共に」使われているかを可視化。
  • コスト削減のポイント:

    • ライセンスの最適化: IRM の全機能には Microsoft 365 E5/Compliance E5 が必要です。F3/E3 ユーザーに対しては、重要なデータに触れる可能性のあるユーザーに限定してアドオンを適用することを検討。

    • ログの保持: デフォルトの保持期間(90日)を超えて分析が必要な場合は、Azure Log Analytics へのエクスポートを構成しますが、インジェスト料金を抑えるために「AI関連の異常」にフィルタリングして転送することを推奨。

【まとめ】

  1. ライセンスの壁: 本機能のフル活用には E5 スイートが必須であり、導入前にコスト対効果の検証(PoC)が必要です。

  2. プライバシーへの配慮: 従業員のAI利用(プロンプト内容)を監視するため、法務・人事部門との合意形成および利用規約の更新が不可欠です。

  3. 過検知の管理: AI Hub の「インジケーターのしきい値」を初期は緩やかに設定し、通常の業務利用(シャドーITではない正当な利用)をブロックしないようチューニングが必要です。

ライセンス:本記事のテキスト/コードは特記なき限り CC BY 4.0 です。引用の際は出典URL(本ページ)を明記してください。
利用ポリシー もご参照ください。

コメント

タイトルとURLをコピーしました