AIインフラの急所:GitLab AI Gateway および vLLM における RCE 脆弱性と実務的防御策

Tech

[META:ROLE=CSIRT_ENGINEER][META:TECH_STACK=GitLab_AI_Gateway,vLLM,Python,K8s][META:VULN_ID=CVE-2024-8640,vLLM_RCE]

本記事はGeminiの出力をプロンプト工学で整理した業務ドラフト(未検証)です。

AIインフラの急所:GitLab AI Gateway および vLLM における RCE 脆弱性と実務的防御策

【脅威の概要と背景】

GitLab AI Gateway (CVE-2024-8640: CVSS 9.6) および vLLM 等の推論エンジンにおいて、認証回避やテンプレートインジェクションによるリモートコード実行 (RCE) が報告されました。AIプロンプトやモデル設定を介して、攻撃者が基盤となるコンテナやホストの制御権を奪取するリスクが高まっています。

【攻撃シナリオの可視化】

graph TD
    Attacker["外部攻撃者"] -->|不正なAPIリクエスト / 特製プロンプト| Gateway["GitLab AI Gateway"]
    Gateway -->|認証バイパス / 検証不足| Internal["内部AIサービス"]
    Internal -->|テンプレート展開 / モデルロード| vLLM["vLLM / 推論サーバー"]
    vLLM -->|Jinja2/OSコマンド注入| RCE["OSコマンド実行 / リバースシェル"]
    RCE -->|クレデンシャル奪取| CloudRes["クラウド/K8sリソース"]

【安全な実装と設定】

1. vLLM: 信頼できないテンプレートの制限

vLLM等の推論エンジンでは、チャットテンプレート(Jinja2)が悪用されるリスクがあります。デフォルト設定を避け、サンドボックス化またはソースの制限を徹底します。

脆弱な設定(vLLM 起動時):

# 信頼できないモデルを無制限にロードし、APIを外部公開

python -m vllm.entrypoints.openai.api_server \
    --model unknown-user/malicious-model \
    --host 0.0.0.0

安全な代替案(堅牢化設定):

# 1. 信頼できるローカルパスまたは特定のレポジトリからのみロード


# 2. モデルフォーマットを Safetensors に限定(pickleを避ける)


# 3. 実行ユーザーの制限(非特権ユーザー)

python -m vllm.entrypoints.openai.api_server \
    --model /app/models/validated-model-Llama3 \
    --load-format safetensors \
    --enforce-eager \
    --host 127.0.0.1  # プロキシ経由でのみアクセス許可

2. ネットワーク分離(GitLab AI Gateway 対策)

GitLab AI Gateway (CVE-2024-8640) のような認証バイパスを防ぐため、ネットワークレベルでのアクセス制御 (ACL) を導入します。

Kubernetes Network Policy 例:

apiVersion: networking.k8s.io/v1
kind: NetworkPolicy
metadata:
  name: ai-gateway-restrict
spec:
  podSelector:
    matchLabels:
      app: gitlab-ai-gateway
  ingress:

  - from:

    - podSelector:
        matchLabels:
          app: gitlab-webservice # GitLab本体からの通信のみ許可
    ports:

    - protocol: TCP
      port: 50052

【検出と緩和策】

1. 検出ポイント (EDR/SIEM)

  • プロセス監視: vLLM または Python プロセスから sh, bash, curl, socat 等が子プロセスとして起動されていないかを監視。

  • ログ分析: API ログ内の {{ ... }} (Jinja2 構文) や OS コマンドと思わしき文字列が含まれるペイロードを検知。

  • 不審なアウトバウンド: AI サーバーから外部インターネット(特に未知の IP や 443 以外のポート)への通信を遮断・警告。

2. 応急的な緩和策 (Workaround)

  • GitLab AI Gateway: 直ちにパッチ済みバージョン(17.3.2, 17.2.5, 17.1.6 以降)へアップデート。

  • WAF導入: AI Gateway の前段に WAF を配置し、既知の RCE ペイロードパターンをブロック。

  • Safetensors強制: PyTorch の pickle 形式によるモデルロードを禁止し、safetensors のみの利用に限定する。

【実務上の落とし穴】

  • 可用性への影響: 厳格な入力バリデーション(プロンプトフィルタリング)を導入すると、正常なプログラミング支援やデータ分析のクエリが拒絶される「過検知(False Positive)」が発生し、開発者の生産性を低下させる恐れがあります。

  • モデルの信頼性: Hugging Face 等の公開リポジトリにあるモデルは、それ自体が「コード」を内包している(Pickle形式など)ため、信頼できる提供元以外のモデルを直接 vLLM でロードすることは、任意のコード実行を許容することと同義です。

【まとめ】

組織として優先すべき3つの対策:

  1. 即時アップデート: GitLab AI Gateway および関連コンポーネントを最新のセキュリティ修正済みバージョンへ更新。

  2. 実行環境の隔離: vLLM などの推論サーバーを非特権ユーザーで実行し、NetworkPolicy 等で通信経路を GitLab 本体のみに限定。

  3. サプライチェーンの検証: 利用するモデルファイルを safetensors 形式に限定し、外部リポジトリからの動的ロードを禁止する。


参考文献:

ライセンス:本記事のテキスト/コードは特記なき限り CC BY 4.0 です。引用の際は出典URL(本ページ)を明記してください。
利用ポリシー もご参照ください。

コメント

タイトルとURLをコピーしました