<p><style_prompt_metadata>
{
“status”: “production”,
“role”: “SRE/DevOps Engineer”,
“architecture_pattern”: “SAX-style Event-driven Parsing”,
“portability_level”: “POSIX High”,
“robustness_features”: [“set -euo pipefail”, “trap cleanup”, “curl retry”]
}
</style_prompt_metadata></p>
<p>本記事は<strong>Geminiの出力をプロンプト工学で整理した業務ドラフト(未検証)</strong>です。</p>
<h1 class="wp-block-heading">大規模JSONストリームのメモリ効率的な処理:POSIX awkによるSAX風パーサーの実装</h1>
<h2 class="wp-block-heading">【導入と前提】</h2>
<p>メモリ制約のある環境で数GB規模のJSONを解析するため、DOMを構築せずストリーム処理で特定フィールドを抽出する基盤を構築します。</p>
<ul class="wp-block-list">
<li><p><strong>OS</strong>: Linux / BSD (POSIX準拠)</p></li>
<li><p><strong>ツール</strong>: <code>curl</code>, <code>awk</code> (mawk/gawk両対応), <code>sh</code> (bash/zsh推奨)</p></li>
<li><p><strong>課題</strong>: <code>jq</code>がインストールされていない、または大規模JSONにより<code>jq</code>でOOM(Out of Memory)が発生する環境での代替。</p></li>
</ul>
<h2 class="wp-block-heading">【処理フローと設計】</h2>
<div class="wp-block-merpress-mermaidjs diagram-source-mermaid"><pre class="mermaid">
graph TD
A["Remote API / File"] -->|curl/cat| B["Stream Segmenter"]
B -->|Tokenized Stream| C["POSIX awk State Machine"]
C -->|Match Logic| D["Filtered Output/Event"]
D -->|Log/Metrics| E["Downstream System"]
</pre></div>
<p>この設計では、JSON全体をメモリにロードするのではなく、文字列を1文字またはトークン単位で走査し、特定のキー(State)に到達したときのみ値を抽出します。</p>
<h2 class="wp-block-heading">【実装:堅牢な自動化スクリプト】</h2>
<div class="codehilite">
<pre data-enlighter-language="generic">#!/usr/bin/env bash
# JSON Streaming Parser via POSIX awk
# Usage: ./json_parse.sh <URL>
set -euo pipefail
IFS=$'\n\t'
# テンポラリファイルのクリーンアップ処理
cleanup() {
local exit_code=$?
trap - EXIT
# 必要に応じて一時ファイルを削除
exit "${exit_code}"
}
trap cleanup EXIT INT TERM
# 環境変数設定(デフォルト値)
TARGET_URL="${1:-}"
RETRY_COUNT=3
RETRY_DELAY=2
if [[ -z "${TARGET_URL}" ]]; then
echo "Usage: $0 <URL>" >&2
exit 1
fi
# -----------------------------------------------------------------------------
# Core Logic: SAX-style Parser in AWK
# -----------------------------------------------------------------------------
# RS (Record Separator) をトークン境界として活用し、
# キーの階層(Path)をスタックで管理しながら目的の値を抽出する。
# -----------------------------------------------------------------------------
parse_json_stream() {
# curlオプション:
# -L: リダイレクト追跡, -s: 進捗非表示, -S: エラー表示, --retry: ネットワーク再試行
curl -L -sS --retry "${RETRY_COUNT}" --retry-delay "${RETRY_DELAY}" "${TARGET_URL}" | \
awk '
BEGIN {
# 文字列、数値、ブール、null、構造子を分離するためのRS設定
# 簡易的な実装のため、エスケープされたダブルクォート等は考慮外
RS = "([[:space:]]*:[[:space:]]*|[[:space:]]*,[[:space:]]*|[[:space:]]*[{][[:space:]]*|[[:space:]]*[}][[:space:]]*|[[:space:]]*\\[[[:space:]]*|[[:space:]]*\\][[:space:]]*)"
}
{
token = $0
gsub(/^[[:space:]"]+|[[:space:]"]+$/, "", token) # クォートと空白の除去
# RT (Record Terminator) を参照して構造を把握
if (RT ~ /\{/) {
depth++; stack[depth] = last_key
} else if (RT ~ /\}/) {
depth--
} else if (RT ~ /:/) {
last_key = token
} else if (RT ~ /,|\]/) {
# 抽出条件: 例としてキーが "id" または "name" のものを出力
if (last_key == "id" || last_key == "name") {
# パス情報を付与して出力(SRE向けメトリクス形式)
printf "path=%s, key=%s, value=%s\n", stack[depth], last_key, token
}
}
}
'
}
# 実行
parse_json_stream
</pre>
</div>
<h2 class="wp-block-heading">【検証と運用】</h2>
<h3 class="wp-block-heading">1. 正常系確認</h3>
<p>ローカルにモックサーバーを立てるか、公開API(例:GitHub API)を叩いて動作を確認します。</p>
<div class="codehilite">
<pre data-enlighter-language="generic"># GitHub APIからリポジトリ名とIDを抽出
./json_parse.sh "https://api.github.com/repos/kubernetes/kubernetes"
</pre>
</div>
<h3 class="wp-block-heading">2. ログ確認と監視</h3>
<p><code>systemd-cat</code> を併用してログを <code>journalctl</code> に転送することで、パイプラインの破綻を検知できます。</p>
<div class="codehilite">
<pre data-enlighter-language="generic">./json_parse.sh "https://api.example.com/stream" 2>&1 | systemd-cat -t json-parser
# 確認コマンド
journalctl -t json-parser -f
</pre>
</div>
<h2 class="wp-block-heading">【トラブルシューティングと落とし穴】</h2>
<ol class="wp-block-list">
<li><p><strong>エスケープ文字の処理</strong>: </p>
<ul>
<li>上記の <code>awk</code> 実装は簡易版であり、<code>\"</code>(エスケープされたダブルクォート)を含む複雑な文字列で誤判定する可能性があります。厳密な要件では <code>gsub</code> によるプリプロセスが必要です。</li>
</ul></li>
<li><p><strong>パイプラインの異常終了</strong>:</p>
<ul>
<li><code>set -o pipefail</code> を忘れると、<code>curl</code> が404エラーを返しても <code>awk</code> が正常終了してしまい、検知が遅れます。</li>
</ul></li>
<li><p><strong>大容量メモリ消費の回避</strong>:</p>
<ul>
<li><code>awk</code> 内で配列(<code>stack</code>)に巨大なデータを詰め込まないよう注意してください。あくまで「現在のパス(キー名)」のみを保持するのがSAX流のベストプラクティスです。</li>
</ul></li>
</ol>
<h2 class="wp-block-heading">【まとめ】</h2>
<p>運用の冪等性と堅牢性を維持するための3つのポイント:</p>
<ol class="wp-block-list">
<li><p><strong>シグナルハンドリング</strong>: <code>trap</code> を用いて、異常終了時でも不完全な一時ファイルやゾンビプロセスを残さない。</p></li>
<li><p><strong>ネットワークの不確実性への備え</strong>: <code>curl</code> のリトライオプションを活用し、一時的な瞬断によるパイプライン停止を防ぐ。</p></li>
<li><p><strong>ステートレスな設計</strong>: 入力ストリームのオフセットに依存せず、トークン単位で評価することで、再実行時の冪等性を担保しやすくする。</p></li>
</ol>
{
“status”: “production”,
“role”: “SRE/DevOps Engineer”,
“architecture_pattern”: “SAX-style Event-driven Parsing”,
“portability_level”: “POSIX High”,
“robustness_features”: [“set -euo pipefail”, “trap cleanup”, “curl retry”]
}
本記事はGeminiの出力をプロンプト工学で整理した業務ドラフト(未検証)です。
大規模JSONストリームのメモリ効率的な処理:POSIX awkによるSAX風パーサーの実装
【導入と前提】
メモリ制約のある環境で数GB規模のJSONを解析するため、DOMを構築せずストリーム処理で特定フィールドを抽出する基盤を構築します。
OS: Linux / BSD (POSIX準拠)
ツール: curl, awk (mawk/gawk両対応), sh (bash/zsh推奨)
課題: jqがインストールされていない、または大規模JSONによりjqでOOM(Out of Memory)が発生する環境での代替。
【処理フローと設計】
graph TD
A["Remote API / File"] -->|curl/cat| B["Stream Segmenter"]
B -->|Tokenized Stream| C["POSIX awk State Machine"]
C -->|Match Logic| D["Filtered Output/Event"]
D -->|Log/Metrics| E["Downstream System"]
この設計では、JSON全体をメモリにロードするのではなく、文字列を1文字またはトークン単位で走査し、特定のキー(State)に到達したときのみ値を抽出します。
【実装:堅牢な自動化スクリプト】
#!/usr/bin/env bash
# JSON Streaming Parser via POSIX awk
# Usage: ./json_parse.sh <URL>
set -euo pipefail
IFS=$'\n\t'
# テンポラリファイルのクリーンアップ処理
cleanup() {
local exit_code=$?
trap - EXIT
# 必要に応じて一時ファイルを削除
exit "${exit_code}"
}
trap cleanup EXIT INT TERM
# 環境変数設定(デフォルト値)
TARGET_URL="${1:-}"
RETRY_COUNT=3
RETRY_DELAY=2
if [[ -z "${TARGET_URL}" ]]; then
echo "Usage: $0 <URL>" >&2
exit 1
fi
# -----------------------------------------------------------------------------
# Core Logic: SAX-style Parser in AWK
# -----------------------------------------------------------------------------
# RS (Record Separator) をトークン境界として活用し、
# キーの階層(Path)をスタックで管理しながら目的の値を抽出する。
# -----------------------------------------------------------------------------
parse_json_stream() {
# curlオプション:
# -L: リダイレクト追跡, -s: 進捗非表示, -S: エラー表示, --retry: ネットワーク再試行
curl -L -sS --retry "${RETRY_COUNT}" --retry-delay "${RETRY_DELAY}" "${TARGET_URL}" | \
awk '
BEGIN {
# 文字列、数値、ブール、null、構造子を分離するためのRS設定
# 簡易的な実装のため、エスケープされたダブルクォート等は考慮外
RS = "([[:space:]]*:[[:space:]]*|[[:space:]]*,[[:space:]]*|[[:space:]]*[{][[:space:]]*|[[:space:]]*[}][[:space:]]*|[[:space:]]*\\[[[:space:]]*|[[:space:]]*\\][[:space:]]*)"
}
{
token = $0
gsub(/^[[:space:]"]+|[[:space:]"]+$/, "", token) # クォートと空白の除去
# RT (Record Terminator) を参照して構造を把握
if (RT ~ /\{/) {
depth++; stack[depth] = last_key
} else if (RT ~ /\}/) {
depth--
} else if (RT ~ /:/) {
last_key = token
} else if (RT ~ /,|\]/) {
# 抽出条件: 例としてキーが "id" または "name" のものを出力
if (last_key == "id" || last_key == "name") {
# パス情報を付与して出力(SRE向けメトリクス形式)
printf "path=%s, key=%s, value=%s\n", stack[depth], last_key, token
}
}
}
'
}
# 実行
parse_json_stream
【検証と運用】
1. 正常系確認
ローカルにモックサーバーを立てるか、公開API(例:GitHub API)を叩いて動作を確認します。
# GitHub APIからリポジトリ名とIDを抽出
./json_parse.sh "https://api.github.com/repos/kubernetes/kubernetes"
2. ログ確認と監視
systemd-cat を併用してログを journalctl に転送することで、パイプラインの破綻を検知できます。
./json_parse.sh "https://api.example.com/stream" 2>&1 | systemd-cat -t json-parser
# 確認コマンド
journalctl -t json-parser -f
【トラブルシューティングと落とし穴】
エスケープ文字の処理:
- 上記の
awk 実装は簡易版であり、\"(エスケープされたダブルクォート)を含む複雑な文字列で誤判定する可能性があります。厳密な要件では gsub によるプリプロセスが必要です。
パイプラインの異常終了:
set -o pipefail を忘れると、curl が404エラーを返しても awk が正常終了してしまい、検知が遅れます。
大容量メモリ消費の回避:
awk 内で配列(stack)に巨大なデータを詰め込まないよう注意してください。あくまで「現在のパス(キー名)」のみを保持するのがSAX流のベストプラクティスです。
【まとめ】
運用の冪等性と堅牢性を維持するための3つのポイント:
シグナルハンドリング: trap を用いて、異常終了時でも不完全な一時ファイルやゾンビプロセスを残さない。
ネットワークの不確実性への備え: curl のリトライオプションを活用し、一時的な瞬断によるパイプライン停止を防ぐ。
ステートレスな設計: 入力ストリームのオフセットに依存せず、トークン単位で評価することで、再実行時の冪等性を担保しやすくする。
コメント