Microsoft Purview Insider Risk Managementによる生成AIの不適切利用監視と統制

Tech

本記事はGeminiの出力をプロンプト工学で整理した業務ドラフト(未検証)です。

Microsoft Purview Insider Risk Managementによる生成AIの不適切利用監視と統制

【導入】

生成AIの普及に伴う機密情報流出や不適切利用のリスクを、Purviewのインサイダーリスク管理で可視化・自動検知します。

【アーキテクチャ設計】

本ソリューションは、Microsoft Purview Insider Risk Management(IRM)を中核に、Microsoft Defender for Cloud Apps (MDCA) および Microsoft Purview Data Loss Prevention (DLP) を連携させることで、AI利用のテレメトリを収集・分析します。

graph TD
    User["ユーザー"] -->|AIプロンプト/データ入力| AI_Service["Copilot / サードパーティAI"]
    AI_Service -->|テレメトリ収集| MDCA["Defender for Cloud Apps"]
    AI_Service -->|機密データ検知| Purview_DLP["Purview DLP"]
    MDCA -->|シグナル送信| IRM_Engine["IRM ポリシーエンジン"]
    Purview_DLP -->|アラート送信| IRM_Engine
    IRM_Engine -->|リスクスコアリング| Risk_Analyst["セキュリティ管理者"]
    IRM_Engine -->|自動アクション| Adaptive_Protection["アダプティブ保護"]

アーキテクチャの鍵となるのは、MDCAがキャプチャした「AIサイトへのブラウジング」や「ブラウザ拡張機能を通じたデータ入力」のシグナルです。これがIRMに統合されることで、「機密情報の貼り付け」や「会社が許可していないAIサイトでの活動」を特定ユーザーの行動コンテキストとして評価可能になります。

【実装・デプロイ手順】

「Risky AI usage」を有効化するには、まずMicrosoft Purviewコンソールでの設定と、エンドポイントのオンボーディングが必要です。

1. 監査ログとコネクタの有効化 (PowerShell)

Microsoft 365 監査ログが有効であることを確認します。

# Exchange Onlineに接続して監査ログの設定を確認

Connect-ExchangeOnline
Get-AdminAuditLogConfig | Format-List UnifiedAuditLogIngestionEnabled

# 無効な場合は有効化

Set-AdminAuditLogConfig -UnifiedAuditLogIngestionEnabled $true

2. IRMポリシーの構成(Bicepスニペット例)

※IRMの設定は現在Webポータルが主流ですが、将来的なIaC統合を見据えたリソース定義の概念を示します。

// 概念的な定義(現在Microsoft Graph API経由での設定が一般的)
resource irmAiPolicy 'Microsoft.Purview/accounts/insiderRiskPolicies@2023-10-01-preview' = {
  name: 'RiskyAIUsagePolicy'
  properties: {
    templateId: 'RiskyAIUsage' // 生成AI利用のリスクテンプレート
    indicators: [
      'Microsoft.Defender.CloudApps.AIUsage'
      'Microsoft.Purview.DLP.SensitiveDataToAI'
    ]
    thresholds: {
      riskScore: 70
    }
  }
}

3. 手動設定プロセス

  1. Purviewポータル: [設定] > [インサイダーリスク管理] > [インジケーター] に移動。

  2. Office 365 インジケーター: 「生成AIの利用(ブラウザ経由)」をオンにする。

  3. ポリシーの作成: 「Risky AI usage」テンプレートを選択し、対象ユーザーと機密情報の種類(SIT)を指定して公開。

【アイデンティティとセキュリティ】

最小特権原則(PoLP)に基づき、以下のロール分離を行います。

  • Insider Risk Management Admin: ポリシーの作成・管理。

  • Insider Risk Management Investigators: アラートの内容確認。ユーザー名は既定で匿名化され、プライバシーを保護。

  • 条件付きアクセス: MDCAと連携し、リスクスコアが高いユーザーに対して、特定のAIサイトへのアクセスを一時的に遮断する制御を実装します。

【運用・コスト最適化】

1. ライセンスSKUの選択

  • 必須: Microsoft 365 E5 / E5 Compliance / E5 Insider Risk Management。

  • 最適化: 全ユーザーにE5を付与するのではなく、機密情報を扱う特定の部門(開発、人事、財務等)に限定してライセンスを割り当てることでコストを抑制可能です。

2. 可観測性

  • Log Analyticsの活用: IRMのアラートをMicrosoft Sentinelにエクスポートし、他のセキュリティログ(Entra IDサインイン等)と相関分析することで、誤検知を減らします。

【まとめ】

導入にあたっての重要な3要点は以下の通りです。

  1. ライセンスの壁: 本機能はMicrosoft 365 E5相当のライセンスが必須となるため、投資対効果(ROI)の事前検証が重要です。

  2. プライバシーへの配慮: 従業員のAI利用行動を監視するため、法務・人事部門と連携し、就業規則やプライバシーポリシーへの記載、およびIRM内での「ユーザー名の匿名化」設定を徹底してください。

  3. アダプティブ保護の活用: 単なる監視に留めず、リスクスコアに応じてDLPポリシーを自動適用する「アダプティブ保護」を有効にすることで、管理者の介入なしにリアルタイムなデータ流出阻止が可能になります。

ライセンス:本記事のテキスト/コードは特記なき限り CC BY 4.0 です。引用の際は出典URL(本ページ)を明記してください。
利用ポリシー もご参照ください。

コメント

タイトルとURLをコピーしました