<p>本記事は<strong>Geminiの出力をプロンプト工学で整理した業務ドラフト(未検証)</strong>です。</p>
<h1 class="wp-block-heading">AWS re:Invent 2023発表:エンタープライズ向け生成AIアシスタント「Amazon Q」の技術的解説</h1>
<h2 class="wp-block-heading">ニュース要点</h2>
<p>AWSは2023年11月29日(JST)、ラスベガスで開催された年次イベント「AWS re:Invent 2023」において、エンタープライズ向けに特化した生成AIアシスタント「Amazon Q」を発表しました。Amazon Qは、企業内の多様なデータソースと連携し、従業員の質問応答、コンテンツ生成、開発者支援、ビジネス分析など、幅広い業務を効率化することを目的としています。発表当初はプレビュー版として提供され、企業は自社のナレッジベースやコードリポジトリなどのプライベートデータを安全に利用し、カスタマイズされたAIアシスタントを構築できるようになりました。</p>
<h3 class="wp-block-heading">Amazon Qの主な機能</h3>
<ul class="wp-block-list">
<li><p><strong>エンタープライズQ&A:</strong> 社内ドキュメント、Wiki、CRMシステムなどのデータに基づき、従業員の質問に即座に回答。</p></li>
<li><p><strong>開発者支援:</strong> AWS Management Console、IDE (VS Code, JetBrains)、AWS CLIなどで、コード生成、デバッグ支援、リファクタリング、説明を提供。</p></li>
<li><p><strong>ビジネス分析:</strong> Amazon QuickSightと統合し、自然言語でデータ分析を指示し、洞察を得る。</p></li>
<li><p><strong>コンタクトセンター支援:</strong> Amazon Connectと連携し、顧客サービス担当者向けにリアルタイムで情報を提供する。</p></li>
</ul>
<h2 class="wp-block-heading">技術的背景</h2>
<p>近年、大規模言語モデル(LLM)を中心とする生成AI技術は目覚ましい発展を遂げています。しかし、これらの汎用モデルを企業で活用する際には、いくつかの重要な課題が存在します。</p>
<h3 class="wp-block-heading">エンタープライズAIの課題</h3>
<ul class="wp-block-list">
<li><p><strong>データプライバシーとセキュリティ:</strong> 企業データは機密性が高く、外部サービスでトレーニングに利用されることへの懸念があります。</p></li>
<li><p><strong>情報の正確性と最新性:</strong> 汎用LLMはインターネット上の公開データで学習しているため、企業固有の最新情報や専門知識に対応できません。</p></li>
<li><p><strong>ハルシネーション(幻覚):</strong> LLMが事実に基づかない情報を生成するリスクがあり、業務利用においては致命的となる可能性があります。</p></li>
<li><p><strong>カスタマイズと統合:</strong> 企業固有のワークフローやシステムにAIを組み込むには、高度なカスタマイズとスムーズな統合が求められます。</p></li>
</ul>
<p>Amazon Qはこれらの課題に対処するため、Retrieval Augmented Generation (RAG) パターンを基盤とし、エンタープライズグレードのセキュリティとプライバシーを設計思想の中心に据えています。</p>
<h2 class="wp-block-heading">仕組み</h2>
<p>Amazon Qは、企業固有のデータを安全に活用し、コンテキストに応じた正確な応答を生成するための多層的なアーキテクチャで構成されています。</p>
<h3 class="wp-block-heading">Amazon Qのアーキテクチャとデータフロー</h3>
<div class="wp-block-merpress-mermaidjs diagram-source-mermaid"><pre class="mermaid">
graph TD
User["ユーザー"] --> |質問入力| QueryProcessor["クエリ処理"]
QueryProcessor --> |ユーザー意図解析| LLM_Intent["LLM(\"意図解析\")"]
LLM_Intent --> |関連情報検索| KnowledgeBase["Amazon Q 知識ベース"]
KnowledgeBase --> |データ同期| EnterpriseDataSources["エンタープライズ データソース (S3, SharePoint, Jira, Confluence, Salesforce等)"]
KnowledgeBase --> |検索結果| RAG_System["RAGシステム"]
RAG_System --> |コンテキスト付与| LLM_Generation["LLM(\"応答生成\")"]
LLM_Generation --> |最終応答| ResponseGenerator["応答生成器"]
ResponseGenerator --> |応答出力| User
EnterpriseDataSources --|アクセス制御| SecurityLayer("セキュリティレイヤー")
QueryProcessor --|アクセス制御| SecurityLayer
KnowledgeBase --|データ暗号化| SecurityLayer
</pre></div>
<ol class="wp-block-list">
<li><p><strong>ユーザーからの質問入力:</strong> ユーザーは自然言語でAmazon Qに質問を投げかけます。</p></li>
<li><p><strong>クエリ処理と意図解析:</strong> Amazon Qはまず、入力された質問を解析し、ユーザーの意図を理解します。この段階で、基盤となるLLMが質問の意図やキーワードを抽出します。</p></li>
<li><p><strong>エンタープライズデータソースとの連携:</strong> Amazon Qは、企業が接続を許可したS3、SharePoint、Jira、Salesforce、Confluence、Zendesk、Microsoft 365などの多様なデータソースから情報を同期し、独自の知識ベースを構築します。この知識ベースは、企業の固有のドキュメント、コード、Wiki、CRMデータなどを効率的に検索できるようインデックス化されています。</p></li>
<li><p><strong>関連情報検索(Retrieval):</strong> ユーザーの質問と解析された意図に基づき、Amazon Qは構築された知識ベースから最も関連性の高い情報を高速に検索します。このステップがRAGパターンの「Retrieval(検索)」部分に相当します。</p></li>
<li><p><strong>コンテキスト付与と応答生成(Generation):</strong> 検索された企業固有の情報は、プロンプトエンジニアリングを通じてLLMにコンテキストとして与えられます。これにより、LLMは汎用的な知識だけでなく、企業固有の最新情報に基づいた正確で適切な応答を生成できます。これがRAGパターンの「Generation(生成)」部分です。</p></li>
<li><p><strong>セキュリティとプライバシー:</strong> Amazon Qはエンタープライズ向けに設計されており、顧客データはAmazon Qの基盤モデルのトレーニングには使用されません。IAMによる厳格なアクセス制御、データ暗号化、データ分離といったセキュリティ機能が組み込まれており、企業はデータのプライバシーとガバナンスを維持しながらAIを活用できます。</p></li>
</ol>
<h2 class="wp-block-heading">インパクト</h2>
<p>Amazon Qの導入は、企業のオペレーション、開発プロセス、意思決定に多大なインパクトをもたらすと期待されます。</p>
<h3 class="wp-block-heading">事実</h3>
<ul class="wp-block-list">
<li><p><strong>生産性の向上:</strong> 従業員が社内情報検索に費やす時間を大幅に削減し、より価値の高い業務に集中できるようになります。</p></li>
<li><p><strong>開発効率の加速:</strong> 開発者は、IDE内でコード生成、テスト、デバッグ、リファクタリングの提案をリアルタイムで受けられるため、開発サイクルが短縮されます。AWS Management Consoleでのトラブルシューティング支援も提供されます。</p></li>
<li><p><strong>意思決定の迅速化:</strong> Amazon QuickSightとの統合により、データアナリストは自然言語で複雑なクエリを実行し、迅速にビジネスインサイトを得ることが可能になります。</p></li>
<li><p><strong>コスト効率の改善:</strong> 特定の業務(例えばカスタマーサポート)において、AIによる一次対応や情報提供を強化することで、人件費やトレーニングコストの削減に貢献します。</p></li>
</ul>
<h3 class="wp-block-heading">推測/評価</h3>
<ul class="wp-block-list">
<li><p><strong>AI民主化の推進:</strong> 生成AIを企業独自のデータと組み合わせることで、専門的なAI知識がない従業員でも高度なAIの恩恵を受けられるようになり、AI活用の裾野が広がります。</p></li>
<li><p><strong>イノベーションの加速:</strong> 従業員が日常業務から解放され、より創造的で戦略的なタスクに集中できるようになることで、企業全体のイノベーションが促進される可能性があります。</p></li>
<li><p><strong>新たなビジネスモデルの創出:</strong> Amazon Qの高度な分析能力や自動化機能は、これまで不可能だった新たなサービスやビジネスモデルを創出するきっかけとなるかもしれません。</p></li>
</ul>
<h2 class="wp-block-heading">今後</h2>
<p>Amazon Qは、AWSのサービスエコシステムに深く統合され、今後もその機能と適用範囲を拡大していくと予想されます。</p>
<ul class="wp-block-list">
<li><p><strong>データソースの拡充:</strong> さらに多くのエンタープライズアプリケーションやSaaSツールとの連携が強化され、より包括的な知識ベースの構築が可能になるでしょう。</p></li>
<li><p><strong>業界特化型機能:</strong> 特定の業界(金融、医療、製造など)に特化したユースケースや規制要件に対応するための機能が追加される可能性があります。</p></li>
<li><p><strong>エージェント機能の進化:</strong> 単なる質問応答だけでなく、複数のステップを要するタスクの自動実行や、他のシステムとの連携を通じた自律的な問題解決能力が向上していくでしょう。</p></li>
<li><p><strong>セキュリティとガバナンスの強化:</strong> 生成AI特有のリスクに対応するため、より高度なセキュリティ機能、データガバナンスツール、監査機能が提供されると見られます。</p></li>
</ul>
<h2 class="wp-block-heading">まとめ</h2>
<p>AWS re:Invent 2023で発表されたAmazon Qは、企業の生成AI活用におけるセキュリティ、プライバシー、正確性という主要な課題に対処するための包括的なソリューションです。企業独自のデータとLLMを安全に連携させるRAGアーキテクチャを基盤とし、従業員の生産性向上、開発者の効率化、そしてより迅速なビジネスインサイトの獲得に貢献します。Amazon Qは、エンタープライズ領域における生成AIの本格的な普及を加速させる重要な一歩となるでしょう。</p>
<hr/>
<h2 class="wp-block-heading">実装/利用の手がかり:AWS CLIによるAmazon Qアプリケーションの概念例</h2>
<p>Amazon Qの具体的な操作はAWS SDKやコンソールが主になりますが、ここではAWS CLIを介した概念的なセットアップと利用の流れを示します。</p>
<div class="codehilite">
<pre data-enlighter-language="generic"># 事前準備:Amazon Qサービスが利用するIAMロールの作成
# IAMロールにはAmazon Qのサービスロールポリシーなどをアタッチします。
# 例: "AmazonQServiceRolePolicy"
# 1. Amazon Q アプリケーションの作成 (概念例)
# このコマンドで、Amazon Qのインスタンスを作成します。
# アプリケーションIDが返されます。
# Big-O: O(1) - API呼び出しは通常定数時間。
# メモリ条件: アプリケーション情報がAWSサービスに保存されるため、ローカルメモリ消費は最小。
aws q create-application \
--name "MyEnterpriseAssistantApp" \
--description "社内ナレッジベース検索と開発支援用のアシスタント" \
--role-arn "arn:aws:iam::123456789012:role/AmazonQServiceRole" \
--region us-east-1 # Amazon Qが利用可能なリージョンを指定
# 2. 知識ベースの作成 (概念例)
# アプリケーションに知識ベースを追加します。
# 知識ベースIDが返されます。
# Big-O: O(1)
# メモリ条件: 同上
aws q create-knowledge-base \
--application-id "a1b2c3d4-e5f6-7890-1234-567890abcdef" \
--name "InternalCompanyDocsKB" \
--description "社内ドキュメント、ポリシー、FAQ"
# 3. データソースの追加と同期 (概念例)
# 知識ベースにデータソース (例: S3バケット) を接続し、コンテンツをインデックス化します。
# 実際のデータ同期にはS3バケット名や認証情報が必要。
# データソースIDが返されます。
# Big-O: データ量に依存するが、初期設定はO(1)。同期はO(N) (Nはデータ量)。
# メモリ条件: データソース接続情報はAWSに保存。同期処理はサービス側で実行。
aws q create-data-source \
--application-id "a1b2c3d4-e5f6-7890-1234-567890abcdef" \
--knowledge-base-id "fedcba98-7654-3210-fedc-ba9876543210" \
--name "S3CompanyDocuments" \
--configuration "S3Configuration={BucketName=my-company-internal-docs}" \
--role-arn "arn:aws:iam::123456789012:role/AmazonQDataSourceRole"
# 4. データソースの同期開始 (概念例)
# 実際にデータソースからデータを取得し、知識ベースにインデックス化を開始します。
# Big-O: O(N) (Nはデータ量)。
# メモリ条件: サービス側で実行。
aws q start-data-source-sync \
--application-id "a1b2c3d4-e5f6-7890-1234-567890abcdef" \
--knowledge-base-id "fedcba98-7654-3210-fedc-ba9876543210" \
--data-source-id "1a2b3c4d-5e6f-7a8b-9c0d-1e2f3a4b5c6d"
# 5. Amazon Q との対話 (概念例)
# 通常はAWS SDKや専用のチャットインターフェースを介して行われますが、
# CLIで概念的に質問を送信する例を示します。
# 実際の出力はより詳細なJSON応答になります。
# Big-O: クエリ処理とRAGに依存。O(log K + L) (Kは知識ベースの規模、LはLLM処理時間)。
# メモリ条件: サービス側で実行。
aws q send-chat-message \
--application-id "a1b2c3d4-e5f6-7890-1234-567890abcdef" \
--input-text "2024年の有給休暇申請ポリシーについて教えてください。" \
--user-id "user123"
# 出力例 (抜粋):
# {
# "ResponseText": "2024年の有給休暇申請ポリシーについては、社内イントラネットの「人事ポリシー」セクションに詳細が記載されています。主な変更点としては..."
# }
</pre>
</div>
本記事はGeminiの出力をプロンプト工学で整理した業務ドラフト(未検証)です。
AWS re:Invent 2023発表:エンタープライズ向け生成AIアシスタント「Amazon Q」の技術的解説
ニュース要点
AWSは2023年11月29日(JST)、ラスベガスで開催された年次イベント「AWS re:Invent 2023」において、エンタープライズ向けに特化した生成AIアシスタント「Amazon Q」を発表しました。Amazon Qは、企業内の多様なデータソースと連携し、従業員の質問応答、コンテンツ生成、開発者支援、ビジネス分析など、幅広い業務を効率化することを目的としています。発表当初はプレビュー版として提供され、企業は自社のナレッジベースやコードリポジトリなどのプライベートデータを安全に利用し、カスタマイズされたAIアシスタントを構築できるようになりました。
Amazon Qの主な機能
エンタープライズQ&A: 社内ドキュメント、Wiki、CRMシステムなどのデータに基づき、従業員の質問に即座に回答。
開発者支援: AWS Management Console、IDE (VS Code, JetBrains)、AWS CLIなどで、コード生成、デバッグ支援、リファクタリング、説明を提供。
ビジネス分析: Amazon QuickSightと統合し、自然言語でデータ分析を指示し、洞察を得る。
コンタクトセンター支援: Amazon Connectと連携し、顧客サービス担当者向けにリアルタイムで情報を提供する。
技術的背景
近年、大規模言語モデル(LLM)を中心とする生成AI技術は目覚ましい発展を遂げています。しかし、これらの汎用モデルを企業で活用する際には、いくつかの重要な課題が存在します。
エンタープライズAIの課題
データプライバシーとセキュリティ: 企業データは機密性が高く、外部サービスでトレーニングに利用されることへの懸念があります。
情報の正確性と最新性: 汎用LLMはインターネット上の公開データで学習しているため、企業固有の最新情報や専門知識に対応できません。
ハルシネーション(幻覚): LLMが事実に基づかない情報を生成するリスクがあり、業務利用においては致命的となる可能性があります。
カスタマイズと統合: 企業固有のワークフローやシステムにAIを組み込むには、高度なカスタマイズとスムーズな統合が求められます。
Amazon Qはこれらの課題に対処するため、Retrieval Augmented Generation (RAG) パターンを基盤とし、エンタープライズグレードのセキュリティとプライバシーを設計思想の中心に据えています。
仕組み
Amazon Qは、企業固有のデータを安全に活用し、コンテキストに応じた正確な応答を生成するための多層的なアーキテクチャで構成されています。
Amazon Qのアーキテクチャとデータフロー
graph TD
User["ユーザー"] --> |質問入力| QueryProcessor["クエリ処理"]
QueryProcessor --> |ユーザー意図解析| LLM_Intent["LLM(\"意図解析\")"]
LLM_Intent --> |関連情報検索| KnowledgeBase["Amazon Q 知識ベース"]
KnowledgeBase --> |データ同期| EnterpriseDataSources["エンタープライズ データソース (S3, SharePoint, Jira, Confluence, Salesforce等)"]
KnowledgeBase --> |検索結果| RAG_System["RAGシステム"]
RAG_System --> |コンテキスト付与| LLM_Generation["LLM(\"応答生成\")"]
LLM_Generation --> |最終応答| ResponseGenerator["応答生成器"]
ResponseGenerator --> |応答出力| User
EnterpriseDataSources --|アクセス制御| SecurityLayer("セキュリティレイヤー")
QueryProcessor --|アクセス制御| SecurityLayer
KnowledgeBase --|データ暗号化| SecurityLayer
ユーザーからの質問入力: ユーザーは自然言語でAmazon Qに質問を投げかけます。
クエリ処理と意図解析: Amazon Qはまず、入力された質問を解析し、ユーザーの意図を理解します。この段階で、基盤となるLLMが質問の意図やキーワードを抽出します。
エンタープライズデータソースとの連携: Amazon Qは、企業が接続を許可したS3、SharePoint、Jira、Salesforce、Confluence、Zendesk、Microsoft 365などの多様なデータソースから情報を同期し、独自の知識ベースを構築します。この知識ベースは、企業の固有のドキュメント、コード、Wiki、CRMデータなどを効率的に検索できるようインデックス化されています。
関連情報検索(Retrieval): ユーザーの質問と解析された意図に基づき、Amazon Qは構築された知識ベースから最も関連性の高い情報を高速に検索します。このステップがRAGパターンの「Retrieval(検索)」部分に相当します。
コンテキスト付与と応答生成(Generation): 検索された企業固有の情報は、プロンプトエンジニアリングを通じてLLMにコンテキストとして与えられます。これにより、LLMは汎用的な知識だけでなく、企業固有の最新情報に基づいた正確で適切な応答を生成できます。これがRAGパターンの「Generation(生成)」部分です。
セキュリティとプライバシー: Amazon Qはエンタープライズ向けに設計されており、顧客データはAmazon Qの基盤モデルのトレーニングには使用されません。IAMによる厳格なアクセス制御、データ暗号化、データ分離といったセキュリティ機能が組み込まれており、企業はデータのプライバシーとガバナンスを維持しながらAIを活用できます。
インパクト
Amazon Qの導入は、企業のオペレーション、開発プロセス、意思決定に多大なインパクトをもたらすと期待されます。
事実
生産性の向上: 従業員が社内情報検索に費やす時間を大幅に削減し、より価値の高い業務に集中できるようになります。
開発効率の加速: 開発者は、IDE内でコード生成、テスト、デバッグ、リファクタリングの提案をリアルタイムで受けられるため、開発サイクルが短縮されます。AWS Management Consoleでのトラブルシューティング支援も提供されます。
意思決定の迅速化: Amazon QuickSightとの統合により、データアナリストは自然言語で複雑なクエリを実行し、迅速にビジネスインサイトを得ることが可能になります。
コスト効率の改善: 特定の業務(例えばカスタマーサポート)において、AIによる一次対応や情報提供を強化することで、人件費やトレーニングコストの削減に貢献します。
推測/評価
AI民主化の推進: 生成AIを企業独自のデータと組み合わせることで、専門的なAI知識がない従業員でも高度なAIの恩恵を受けられるようになり、AI活用の裾野が広がります。
イノベーションの加速: 従業員が日常業務から解放され、より創造的で戦略的なタスクに集中できるようになることで、企業全体のイノベーションが促進される可能性があります。
新たなビジネスモデルの創出: Amazon Qの高度な分析能力や自動化機能は、これまで不可能だった新たなサービスやビジネスモデルを創出するきっかけとなるかもしれません。
今後
Amazon Qは、AWSのサービスエコシステムに深く統合され、今後もその機能と適用範囲を拡大していくと予想されます。
データソースの拡充: さらに多くのエンタープライズアプリケーションやSaaSツールとの連携が強化され、より包括的な知識ベースの構築が可能になるでしょう。
業界特化型機能: 特定の業界(金融、医療、製造など)に特化したユースケースや規制要件に対応するための機能が追加される可能性があります。
エージェント機能の進化: 単なる質問応答だけでなく、複数のステップを要するタスクの自動実行や、他のシステムとの連携を通じた自律的な問題解決能力が向上していくでしょう。
セキュリティとガバナンスの強化: 生成AI特有のリスクに対応するため、より高度なセキュリティ機能、データガバナンスツール、監査機能が提供されると見られます。
まとめ
AWS re:Invent 2023で発表されたAmazon Qは、企業の生成AI活用におけるセキュリティ、プライバシー、正確性という主要な課題に対処するための包括的なソリューションです。企業独自のデータとLLMを安全に連携させるRAGアーキテクチャを基盤とし、従業員の生産性向上、開発者の効率化、そしてより迅速なビジネスインサイトの獲得に貢献します。Amazon Qは、エンタープライズ領域における生成AIの本格的な普及を加速させる重要な一歩となるでしょう。
実装/利用の手がかり:AWS CLIによるAmazon Qアプリケーションの概念例
Amazon Qの具体的な操作はAWS SDKやコンソールが主になりますが、ここではAWS CLIを介した概念的なセットアップと利用の流れを示します。
# 事前準備:Amazon Qサービスが利用するIAMロールの作成
# IAMロールにはAmazon Qのサービスロールポリシーなどをアタッチします。
# 例: "AmazonQServiceRolePolicy"
# 1. Amazon Q アプリケーションの作成 (概念例)
# このコマンドで、Amazon Qのインスタンスを作成します。
# アプリケーションIDが返されます。
# Big-O: O(1) - API呼び出しは通常定数時間。
# メモリ条件: アプリケーション情報がAWSサービスに保存されるため、ローカルメモリ消費は最小。
aws q create-application \
--name "MyEnterpriseAssistantApp" \
--description "社内ナレッジベース検索と開発支援用のアシスタント" \
--role-arn "arn:aws:iam::123456789012:role/AmazonQServiceRole" \
--region us-east-1 # Amazon Qが利用可能なリージョンを指定
# 2. 知識ベースの作成 (概念例)
# アプリケーションに知識ベースを追加します。
# 知識ベースIDが返されます。
# Big-O: O(1)
# メモリ条件: 同上
aws q create-knowledge-base \
--application-id "a1b2c3d4-e5f6-7890-1234-567890abcdef" \
--name "InternalCompanyDocsKB" \
--description "社内ドキュメント、ポリシー、FAQ"
# 3. データソースの追加と同期 (概念例)
# 知識ベースにデータソース (例: S3バケット) を接続し、コンテンツをインデックス化します。
# 実際のデータ同期にはS3バケット名や認証情報が必要。
# データソースIDが返されます。
# Big-O: データ量に依存するが、初期設定はO(1)。同期はO(N) (Nはデータ量)。
# メモリ条件: データソース接続情報はAWSに保存。同期処理はサービス側で実行。
aws q create-data-source \
--application-id "a1b2c3d4-e5f6-7890-1234-567890abcdef" \
--knowledge-base-id "fedcba98-7654-3210-fedc-ba9876543210" \
--name "S3CompanyDocuments" \
--configuration "S3Configuration={BucketName=my-company-internal-docs}" \
--role-arn "arn:aws:iam::123456789012:role/AmazonQDataSourceRole"
# 4. データソースの同期開始 (概念例)
# 実際にデータソースからデータを取得し、知識ベースにインデックス化を開始します。
# Big-O: O(N) (Nはデータ量)。
# メモリ条件: サービス側で実行。
aws q start-data-source-sync \
--application-id "a1b2c3d4-e5f6-7890-1234-567890abcdef" \
--knowledge-base-id "fedcba98-7654-3210-fedc-ba9876543210" \
--data-source-id "1a2b3c4d-5e6f-7a8b-9c0d-1e2f3a4b5c6d"
# 5. Amazon Q との対話 (概念例)
# 通常はAWS SDKや専用のチャットインターフェースを介して行われますが、
# CLIで概念的に質問を送信する例を示します。
# 実際の出力はより詳細なJSON応答になります。
# Big-O: クエリ処理とRAGに依存。O(log K + L) (Kは知識ベースの規模、LはLLM処理時間)。
# メモリ条件: サービス側で実行。
aws q send-chat-message \
--application-id "a1b2c3d4-e5f6-7890-1234-567890abcdef" \
--input-text "2024年の有給休暇申請ポリシーについて教えてください。" \
--user-id "user123"
# 出力例 (抜粋):
# {
# "ResponseText": "2024年の有給休暇申請ポリシーについては、社内イントラネットの「人事ポリシー」セクションに詳細が記載されています。主な変更点としては..."
# }
コメント