<p><meta_data author="CloudArchitect" schema_version="2024.07" scope="M365/Security" style="architecture_design">
<tags>M365 Copilot, Microsoft Purview, DLP, Risky AI Usage, Excel, Entra ID</tags>
<title>M365 CopilotとPurviewによる機密データの保護:Excel関数生成におけるRisky AI Usageの検知と制御</title>
</meta_data>
本記事は<strong>Geminiの出力をプロンプト工学で整理した業務ドラフト(未検証)</strong>です。</p>
<h1 class="wp-block-heading">M365 CopilotとPurviewによる機密データの保護:Excel関数生成におけるRisky AI Usageの検知と制御</h1>
<h2 class="wp-block-heading">【導入】</h2>
<p>Copilotのデータアクセスと生成操作をPurviewで監視し、Excelにおける機密情報漏洩リスク(Risky AI Usage)を未然に防ぎます。</p>
<h2 class="wp-block-heading">【アーキテクチャ設計】</h2>
<p>本アーキテクチャは、M365 CopilotがExcelの大規模データセットに対して自然言語処理(NPL)を実行し、機密情報(PIIや財務データ)を抽出・集計する際に発生しうる「Risky AI Usage」を、Microsoft Purviewでリアルタイムに検知・制御することを目的としています。Copilotからのデータ要求は、常にユーザーの権限とPurview DLPポリシーに基づいて評価されます。特に、ユーザーがCopilotを利用して機密データから高度な集計結果を生成し、その結果を外部に持ち出そうとする経路を監査・ブロックする構造を採用します。</p>
<div class="wp-block-merpress-mermaidjs diagram-source-mermaid"><pre class="mermaid">
graph TD
A["End User"] -->|1. Copilot Prompt (Excel)| B("M365 Copilot Service")
B -->|2. Data Access Request| C["M365 Apps/SharePoint/OneDrive"]
C -->|3. Policy Check("DLP/Sensitivity Label")| D("Microsoft Purview DLP")
D -->|4. Audit Record| E["Purview Audit Premium"]
D -- Policy Enforcement --> B
B -->|5. Function/Data Generation| A
E --> F["Compliance Portal Analytics"]
A -->|6. External Share Attempt| D
subgraph Data Governance
D
E
end
subgraph M365 Ecosystem
B
C
end
</pre></div>
<h2 class="wp-block-heading">【実装・デプロイ手順】</h2>
<p>ここでは、Excelにおける大量の機密データ(例:米国社会保障番号50件以上)に対するCopilotの使用を「リスクの高いAI利用」として定義し、その結果を外部に貼り付ける操作を監査し、ユーザーに警告を出すDLPポリシーを設定するためのPowerShell手順を示します。</p>
<p>DLPポリシーにおけるCopilot特有の条件は、現在、Purview Compliance PortalのGUIで最も詳細に設定可能ですが、基盤となるSensitive Information Type (SIT) の定義とポリシーの枠組みをPowerShellで管理します。</p>
<div class="codehilite">
<pre data-enlighter-language="generic"># Microsoft Purview Security & Compliance PowerShellへの接続
# Connect-IPPSSession
# 1. Excelファイルが配置されている場所をターゲットとする
$PolicyName = "Copilot_Excel_Data_Protection"
$Locations = @("SharePoint", "OneDrive")
# 2. DLPポリシーの新規作成または更新
New-DlpCompliancePolicy -Name $PolicyName -ExchangeLocation "None" -SharePointLocation $Locations -OneDriveLocation $Locations -Comment "Monitor and control risky AI usage in Excel" -Mode "Enable"
# 3. Risky AI Usageをターゲットにしたルールの定義
# ルール目標: 50件以上のSSNを含むExcelファイルに対し、Copilotが生成した結果を外部にコピー/貼り付けようとした場合に検知する
# 注: Copilot特有のアクション(例: Copilotが生成したコンテンツのコピー)は
# 'Advanced DLP rule' のコンディションとしてGUIで設定されます。
# PowerShellでは、以下のSITとボリュームに基づいた基本検知ルールを設定します。
$RuleName_SIT_Volume = "High_Volume_SSN_Copilot_Watch"
New-DlpComplianceRule -Policy $PolicyName -Name $RuleName_SIT_Volume `
-AccessScope "Any" `
-SensitiveInformationTypes @{Identity="U.S. Social Security Number (SSN)"; MinCount="50"} `
-ContentMatchProperty "ContentMatchRule" `
-Action "NotifyUser" `
-NotificationUser "PolicyTip" `
-OverrideOption "Allowed" `
-Severity "High"
# 4. (GUI推奨操作: Purview Compliance Portal)
# 上記ルールに対し、追加の条件として以下を設定する:
# 「コンテンツが特定のM365 Copilotインタラクションと一致する場合」を選択し、
# アクションとして「生成されたコンテンツのコピー/貼り付けをブロック」を適用します。
</pre>
</div>
<h2 class="wp-block-heading">【アイデンティティとセキュリティ】</h2>
<h3 class="wp-block-heading">権限モデル(Entra ID & RBAC)</h3>
<ul class="wp-block-list">
<li><p><strong>データアクセス原則</strong>: M365 Copilotは、ユーザーのアクセス権限(RAGの原則)を超えてデータにアクセスすることはありません。これは、ExcelファイルがSharePoint/OneDriveに保存されている場合の基本原則です。</p></li>
<li><p><strong>最小特権</strong>: Copilotが生成する情報が機密性を持つことを考慮し、ファイルの共有設定は「最小特権」に基づき、不必要な外部共有リンクの作成を条件付きアクセスで制限します。</p></li>
<li><p><strong>Purview RBAC</strong>: DLPポリシーの定義・変更は「DLP管理者」ロールに限定します。Copilotによるリスク分析や監査ログのレビューは、「Purview監査管理者」ロールを持つセキュリティオペレーションセンター(SOC)担当者が担当します。</p></li>
</ul>
<h3 class="wp-block-heading">セキュリティ境界と防御</h3>
<ol class="wp-block-list">
<li><p><strong>感度ラベルによる保護(Information Protection)</strong>:
高リスクのExcelファイルには、自動ラベリングポリシーを通じて「極秘」ラベルを適用します。これにより、ファイル自体が暗号化され、ラベルポリシーで許可されたユーザーのみがCopilotを通じてデータにアクセス可能となります。</p></li>
<li><p><strong>条件付きアクセス(CA)</strong>:
未承認デバイスや非準拠デバイスからのM365サービスへのアクセスを制限し、Copilotの利用自体を信頼された環境からのみに限定します。</p></li>
<li><p><strong>Microsoft Purview DLP</strong>:
CopilotアクティビティをターゲットとしたアダプティブスコープDLPポリシーを設定します。特に、Excelでの「大量の関数生成」や「データ抽出」といった操作を検知し、機密情報の検出と組み合わせることで、Risky AI Usageを特定します。</p></li>
</ol>
<h2 class="wp-block-heading">【運用・コスト最適化】</h2>
<h3 class="wp-block-heading">可観測性</h3>
<p><strong>Purview Audit Premiumの活用</strong>:
Copilotの全プロンプト、応答、アクセスされたデータオブジェクトはAudit Premiumに記録されます。</p>
<ul class="wp-block-list">
<li><p><strong>AI Usage Analytics</strong>: Purview Compliance Portalの「Content Explorer」と「Audit」機能を使用し、Copilotがアクセスした機密性の高いファイルのトレンドを分析します。</p></li>
<li><p><strong>Custom Alerting</strong>: Auditログで特定された異常なCopilot利用パターン(例:短時間に異なる機密ファイルに対するプロンプトを大量に発行)に対し、カスタムアラートを設定し、SOCに通知します。</p></li>
</ul>
<h3 class="wp-block-heading">コスト最適化</h3>
<ul class="wp-block-list">
<li><p><strong>ライセンスティアの選択</strong>: Risky AI Usageの高度な検知やAudit Premium(1年間ログ保持)はM365 E5ライセンスまたはPurview E5アドオンが必要です。全ユーザーに適用するのではなく、機密情報へのアクセス権を持つユーザーグループにE5ライセンスを限定し、コスト効率を高めます。</p></li>
<li><p><strong>データ保持ポリシー</strong>: Auditログはデフォルトで1年間保持されますが、それ以上の保持が必要な場合はAzure Log AnalyticsやAzure Storageにオフロードし、Purview内のホットストレージ利用期間を最適化します。</p></li>
</ul>
<h2 class="wp-block-heading">【まとめ】</h2>
<p>M365 Copilotを安全に活用し、Excel関数生成におけるRisky AI Usageを制御するための要点は以下の通りです。</p>
<ol class="wp-block-list">
<li><p><strong>DLPポリシーの段階的展開とチューニング</strong>: Copilotの新しいDLP条件は生産性に直結するため、最初は監査(Audit Only)モードで展開し、誤検知(False Positives)率を評価することが必須です。大量データ処理がブロックされると業務停止につながるため、除外ルールを慎重に設定します。</p></li>
<li><p><strong>データガバナンスの事前整備</strong>: Copilotが参照するExcelファイル群に対し、事前に感度ラベルを適用し、機密情報の所在を明確化しておくことが、効果的なDLPの前提となります。ラベル付けされていない「暗黙の機密データ」が最大のリスク源です。</p></li>
<li><p><strong>ユーザーへのセキュリティ意識向上</strong>: DLPによるブロックや警告が発生した場合、ユーザーがその理由を理解できるよう、ポリシーヒント(Policy Tip)を分かりやすく提供します。AIがセキュリティ境界を無視するわけではないことを継続的に教育することが、シャドーAI/ITを防ぐ鍵となります。</p></li>
</ol>
M365 Copilot, Microsoft Purview, DLP, Risky AI Usage, Excel, Entra ID
M365 CopilotとPurviewによる機密データの保護:Excel関数生成におけるRisky AI Usageの検知と制御
本記事は
Geminiの出力をプロンプト工学で整理した業務ドラフト(未検証)です。
M365 CopilotとPurviewによる機密データの保護:Excel関数生成におけるRisky AI Usageの検知と制御
【導入】
Copilotのデータアクセスと生成操作をPurviewで監視し、Excelにおける機密情報漏洩リスク(Risky AI Usage)を未然に防ぎます。
【アーキテクチャ設計】
本アーキテクチャは、M365 CopilotがExcelの大規模データセットに対して自然言語処理(NPL)を実行し、機密情報(PIIや財務データ)を抽出・集計する際に発生しうる「Risky AI Usage」を、Microsoft Purviewでリアルタイムに検知・制御することを目的としています。Copilotからのデータ要求は、常にユーザーの権限とPurview DLPポリシーに基づいて評価されます。特に、ユーザーがCopilotを利用して機密データから高度な集計結果を生成し、その結果を外部に持ち出そうとする経路を監査・ブロックする構造を採用します。
graph TD
A["End User"] -->|1. Copilot Prompt (Excel)| B("M365 Copilot Service")
B -->|2. Data Access Request| C["M365 Apps/SharePoint/OneDrive"]
C -->|3. Policy Check("DLP/Sensitivity Label")| D("Microsoft Purview DLP")
D -->|4. Audit Record| E["Purview Audit Premium"]
D -- Policy Enforcement --> B
B -->|5. Function/Data Generation| A
E --> F["Compliance Portal Analytics"]
A -->|6. External Share Attempt| D
subgraph Data Governance
D
E
end
subgraph M365 Ecosystem
B
C
end
【実装・デプロイ手順】
ここでは、Excelにおける大量の機密データ(例:米国社会保障番号50件以上)に対するCopilotの使用を「リスクの高いAI利用」として定義し、その結果を外部に貼り付ける操作を監査し、ユーザーに警告を出すDLPポリシーを設定するためのPowerShell手順を示します。
DLPポリシーにおけるCopilot特有の条件は、現在、Purview Compliance PortalのGUIで最も詳細に設定可能ですが、基盤となるSensitive Information Type (SIT) の定義とポリシーの枠組みをPowerShellで管理します。
# Microsoft Purview Security & Compliance PowerShellへの接続
# Connect-IPPSSession
# 1. Excelファイルが配置されている場所をターゲットとする
$PolicyName = "Copilot_Excel_Data_Protection"
$Locations = @("SharePoint", "OneDrive")
# 2. DLPポリシーの新規作成または更新
New-DlpCompliancePolicy -Name $PolicyName -ExchangeLocation "None" -SharePointLocation $Locations -OneDriveLocation $Locations -Comment "Monitor and control risky AI usage in Excel" -Mode "Enable"
# 3. Risky AI Usageをターゲットにしたルールの定義
# ルール目標: 50件以上のSSNを含むExcelファイルに対し、Copilotが生成した結果を外部にコピー/貼り付けようとした場合に検知する
# 注: Copilot特有のアクション(例: Copilotが生成したコンテンツのコピー)は
# 'Advanced DLP rule' のコンディションとしてGUIで設定されます。
# PowerShellでは、以下のSITとボリュームに基づいた基本検知ルールを設定します。
$RuleName_SIT_Volume = "High_Volume_SSN_Copilot_Watch"
New-DlpComplianceRule -Policy $PolicyName -Name $RuleName_SIT_Volume `
-AccessScope "Any" `
-SensitiveInformationTypes @{Identity="U.S. Social Security Number (SSN)"; MinCount="50"} `
-ContentMatchProperty "ContentMatchRule" `
-Action "NotifyUser" `
-NotificationUser "PolicyTip" `
-OverrideOption "Allowed" `
-Severity "High"
# 4. (GUI推奨操作: Purview Compliance Portal)
# 上記ルールに対し、追加の条件として以下を設定する:
# 「コンテンツが特定のM365 Copilotインタラクションと一致する場合」を選択し、
# アクションとして「生成されたコンテンツのコピー/貼り付けをブロック」を適用します。
【アイデンティティとセキュリティ】
権限モデル(Entra ID & RBAC)
データアクセス原則: M365 Copilotは、ユーザーのアクセス権限(RAGの原則)を超えてデータにアクセスすることはありません。これは、ExcelファイルがSharePoint/OneDriveに保存されている場合の基本原則です。
最小特権: Copilotが生成する情報が機密性を持つことを考慮し、ファイルの共有設定は「最小特権」に基づき、不必要な外部共有リンクの作成を条件付きアクセスで制限します。
Purview RBAC: DLPポリシーの定義・変更は「DLP管理者」ロールに限定します。Copilotによるリスク分析や監査ログのレビューは、「Purview監査管理者」ロールを持つセキュリティオペレーションセンター(SOC)担当者が担当します。
セキュリティ境界と防御
感度ラベルによる保護(Information Protection):
高リスクのExcelファイルには、自動ラベリングポリシーを通じて「極秘」ラベルを適用します。これにより、ファイル自体が暗号化され、ラベルポリシーで許可されたユーザーのみがCopilotを通じてデータにアクセス可能となります。
条件付きアクセス(CA):
未承認デバイスや非準拠デバイスからのM365サービスへのアクセスを制限し、Copilotの利用自体を信頼された環境からのみに限定します。
Microsoft Purview DLP:
CopilotアクティビティをターゲットとしたアダプティブスコープDLPポリシーを設定します。特に、Excelでの「大量の関数生成」や「データ抽出」といった操作を検知し、機密情報の検出と組み合わせることで、Risky AI Usageを特定します。
【運用・コスト最適化】
可観測性
Purview Audit Premiumの活用:
Copilotの全プロンプト、応答、アクセスされたデータオブジェクトはAudit Premiumに記録されます。
AI Usage Analytics: Purview Compliance Portalの「Content Explorer」と「Audit」機能を使用し、Copilotがアクセスした機密性の高いファイルのトレンドを分析します。
Custom Alerting: Auditログで特定された異常なCopilot利用パターン(例:短時間に異なる機密ファイルに対するプロンプトを大量に発行)に対し、カスタムアラートを設定し、SOCに通知します。
コスト最適化
ライセンスティアの選択: Risky AI Usageの高度な検知やAudit Premium(1年間ログ保持)はM365 E5ライセンスまたはPurview E5アドオンが必要です。全ユーザーに適用するのではなく、機密情報へのアクセス権を持つユーザーグループにE5ライセンスを限定し、コスト効率を高めます。
データ保持ポリシー: Auditログはデフォルトで1年間保持されますが、それ以上の保持が必要な場合はAzure Log AnalyticsやAzure Storageにオフロードし、Purview内のホットストレージ利用期間を最適化します。
【まとめ】
M365 Copilotを安全に活用し、Excel関数生成におけるRisky AI Usageを制御するための要点は以下の通りです。
DLPポリシーの段階的展開とチューニング: Copilotの新しいDLP条件は生産性に直結するため、最初は監査(Audit Only)モードで展開し、誤検知(False Positives)率を評価することが必須です。大量データ処理がブロックされると業務停止につながるため、除外ルールを慎重に設定します。
データガバナンスの事前整備: Copilotが参照するExcelファイル群に対し、事前に感度ラベルを適用し、機密情報の所在を明確化しておくことが、効果的なDLPの前提となります。ラベル付けされていない「暗黙の機密データ」が最大のリスク源です。
ユーザーへのセキュリティ意識向上: DLPによるブロックや警告が発生した場合、ユーザーがその理由を理解できるよう、ポリシーヒント(Policy Tip)を分かりやすく提供します。AIがセキュリティ境界を無視するわけではないことを継続的に教育することが、シャドーAI/ITを防ぐ鍵となります。
コメント