<p><!--META
{
"title": "Googleの「Project Astra」が描く汎用AIエージェントの未来",
"primary_category": "AI>マルチモーダルAI",
"secondary_categories": ["Google DeepMind","Google I/O"],
"tags": ["Project Astra","Gemini","マルチモーダル","AIエージェント","リアルタイムAI"],
"summary": "Google DeepMindが発表した「Project Astra」は、リアルタイムな視覚・聴覚処理で人間のように対話する汎用AIエージェントプロジェクト。Geminiを基盤とし、未来のAIインタラクションを予見します。",
"mermaid": true,
"verify_level": "L0",
"tweet_hint": {"text":"GoogleのProject Astraは、リアルタイムで視覚・聴覚を理解し、人間のように対話する汎用AIエージェントの未来を提示。Google I/O 2024で披露され、Geminiモデルを基盤としています。#ProjectAstra #AIエージェント #GoogleIO2024","hashtags":["#ProjectAstra","#AIエージェント","#GoogleIO2024"]},
"link_hints": ["https://blog.google/technology/ai/project-astra-google-gemini-ai-agents/","https://www.youtube.com/watch?v=F3Hrt8d_i7c"]
}
-->
本記事は<strong>Geminiの出力をプロンプト工学で整理した業務ドラフト(未検証)</strong>です。</p>
<h1 class="wp-block-heading">Googleの「Project Astra」が描く汎用AIエージェントの未来</h1>
<h2 class="wp-block-heading">ニュース要点</h2>
<p>2024年5月14日(JST)、Google DeepMindはGoogle I/O 2024の基調講演で、リアルタイムマルチモーダルAIエージェントのビジョンを示す「Project Astra」を発表しました。このプロジェクトは、視覚と音声の情報を同時に処理し、人間と自然に、かつ瞬時にインタラクションできる汎用AIエージェントの実現を目指しています。発表では、カメラ映像を通して周囲の環境を認識し、ユーザーの質問に即座に答えるデモンストレーションが披露され、未来のAIアシスタント像が具体的に示されました[1]。</p>
<h2 class="wp-block-heading">技術的背景:進化するマルチモーダルAI</h2>
<p>Project Astraは、近年急速に進歩しているマルチモーダルAI技術の最先端に位置します。従来のAIがテキストや画像、音声といった単一のモダリティ(形式)をそれぞれ独立して処理していたのに対し、マルチモーダルAIはこれらを統合的に理解し、相互の関係性を踏まえて推論する能力を持ちます。GoogleのGeminiモデルはその代表例であり、テキスト、画像、音声、動画を一度に入力・処理できる設計が特徴です。</p>
<p>Project Astraは、このGeminiモデルを基盤として、特に「リアルタイム性」と「文脈理解」を極限まで高めることを目指しています。人間との自然な対話では、視覚的な手がかり(指差し、表情など)や過去の会話履歴といった文脈が不可欠です。AIエージェントがこれらの要素を瞬時に捉え、適切な応答を生成するためには、単に複数のモダリティを処理するだけでなく、高度な知覚、記憶、推論の統合が必要となります。</p>
<h2 class="wp-block-heading">Project Astraの仕組み</h2>
<p>Project Astraは、周囲の世界を「知覚」し、ユーザーと「対話」するための高度なアーキテクチャを採用しています。</p>
<h3 class="wp-block-heading">構成とデータフロー</h3>
<p>Project Astraの主要な構成要素とデータフローは以下の通りです。</p>
<div class="wp-block-merpress-mermaidjs diagram-source-mermaid"><pre class="mermaid">
graph TD
A["ユーザー"] --|音声/視覚入力| B("エージェントデバイス: カメラ/マイク")
B --|リアルタイムストリーム| C{"マルチモーダルエンコーダー"}
C --|エンコードされたデータ| D["Gemini基盤モデル"]
D --|記憶/文脈維持| E["長期記憶/文脈データベース"]
E --|過去情報| D
D --|リアルタイム推論/応答生成| F{"応答生成モジュール"}
F --|音声合成| G["エージェントデバイス: スピーカー"]
G --|音声出力| A
B --|高フレームレート映像| H["環境認識モジュール"]
H --|視覚的分析結果| D
</pre></div>
<ul class="wp-block-list">
<li><p><strong>エージェントデバイス (B, G)</strong>: カメラとマイクを通じてユーザーの視覚情報(周囲の環境、ユーザーの動き)と音声情報をリアルタイムで収集します。応答はスピーカーから音声として出力されます。</p></li>
<li><p><strong>マルチモーダルエンコーダー (C)</strong>: カメラからの映像ストリームとマイクからの音声ストリームを、Gemini基盤モデルが理解できる形式にエンコードします。この処理はリアルタイムで行われ、低遅延が求められます。</p></li>
<li><p><strong>Gemini基盤モデル (D)</strong>: Project Astraの中核であり、エンコードされたマルチモーダル入力と、長期記憶/文脈データベースから取得した過去の情報を統合して理解し、リアルタイムで推論を行います。これにより、複雑な状況判断や自然な対話が実現されます。Google DeepMindの発表では、Gemini 1.5 Proのマルチモーダル推論機能を大幅に高速化したと説明されています[1]。</p></li>
<li><p><strong>長期記憶/文脈データベース (E)</strong>: 過去の対話履歴、観察結果、ユーザーが提供した情報などを記憶し、現在の対話の文脈を維持するために利用されます。これにより、AIエージェントは一貫性のある、よりパーソナルな応答が可能になります。</p></li>
<li><p><strong>応答生成モジュール (F)</strong>: Gemini基盤モデルによる推論結果に基づき、適切な音声応答を生成します。</p></li>
<li><p><strong>環境認識モジュール (H)</strong>: カメラからの高フレームレート映像を分析し、オブジェクト認識、空間理解、ユーザーの指示(指差しなど)の解釈を行います。これらの視覚的分析結果はGemini基盤モデルにフィードバックされ、推論に利用されます。</p></li>
</ul>
<h3 class="wp-block-heading">概念的な実装イメージ</h3>
<p>Project AstraはまだAPIとして公開されていませんが、リアルタイムマルチモーダル入力を受け取り、AIモデルで処理する概念的な流れをPythonで示すと以下のようになります。</p>
<div class="codehilite">
<pre data-enlighter-language="generic">import time
class MultimodalInput:
"""
マルチモーダル入力をシミュレートするクラス。
実際にはカメラやマイクからリアルタイムストリームを受け取る。
"""
def __init__(self):
self.frame_count = 0
def get_vision_frame(self):
"""カメラフレームをシミュレート"""
self.frame_count += 1
return f"視覚フレーム {self.frame_count} (時刻: {time.time():.2f})"
def get_audio_chunk(self):
"""音声チャンクをシミュレート"""
return f"音声チャンク (時刻: {time.time():.2f})"
class GeminiLikeModel:
"""
GeminiのようなマルチモーダルAIモデルをシミュレートするクラス。
"""
def __init__(self):
self.memory = [] # 長期記憶の簡略化
def process_multimodal_input(self, vision_data, audio_data, current_context):
"""
視覚データと音声データを基に推論を行う。
Args:
vision_data (str): 視覚フレームデータ。
audio_data (str): 音声チャンクデータ。
current_context (list): 現在の会話の文脈や過去の記憶。
Returns:
str: AIの応答。
"""
print(f"--- モデル処理開始 ---")
print(f" 視覚入力: {vision_data}")
print(f" 音声入力: {audio_data}")
print(f" 文脈/記憶: {current_context}")
# 実際のモデルでは複雑な推論が行われる
response = f"AI応答: {vision_data} と {audio_data} を理解しました。"
if "メガネ" in audio_data:
response += " メガネをお探しですか?"
# 記憶の更新をシミュレート
self.memory.append({"vision": vision_data, "audio": audio_data, "response": response})
print(f"--- モデル処理終了 ---")
return response
# 使用例
if __name__ == "__main__":
input_device = MultimodalInput()
ai_model = GeminiLikeModel()
context = [] # 現在の会話文脈
# リアルタイム処理のループをシミュレート
for i in range(3):
print(f"\n--- 処理サイクル {i+1} ---")
vision_frame = input_device.get_vision_frame()
audio_chunk = input_device.get_audio_chunk()
# 文脈を過去の記憶から構築
current_context = ai_model.memory[-2:] if len(ai_model.memory) > 0 else []
response = ai_model.process_multimodal_input(vision_frame, audio_chunk, current_context)
print(f"AIからの応答: {response}")
time.sleep(1) # リアルタイム処理の遅延をシミュレート
# ユーザーが「メガネどこ?」と尋ねた場合をシミュレート
print("\n--- ユーザーが「メガネどこ?」と尋ねる ---")
vision_frame = input_device.get_vision_frame() # ユーザー周辺の視覚情報
audio_chunk = "ユーザー: 私のメガネはどこですか?"
current_context = ai_model.memory[-2:] # 直前のやり取りを文脈に含める
response = ai_model.process_multimodal_input(vision_frame, audio_chunk, current_context)
print(f"AIからの応答: {response}")
</pre>
</div>
<ul class="wp-block-list">
<li><p><strong>入出力</strong>: <code>MultimodalInput</code>クラスが視覚フレームと音声チャンクを生成し、<code>GeminiLikeModel</code>がこれらを受け取って応答を生成します。</p></li>
<li><p><strong>前提</strong>: カメラやマイクからのリアルタイムストリームは抽象化されています。AIモデルの推論は瞬時に行われると仮定しています。</p></li>
<li><p><strong>計算量/メモリ条件</strong>: 実際のGeminiモデルの処理は非常に高い計算資源とメモリを要求しますが、この概念コードではその側面は省略しています。リアルタイム処理のためには、低遅延でのデータ入出力とGPU/TPUによる高速並列処理が不可欠です。</p></li>
</ul>
<h2 class="wp-block-heading">インパクトと今後の展望</h2>
<p>Project Astraは、AIが人間の生活にどのように統合されていくかについて、非常に大きな示唆を与えます。</p>
<h3 class="wp-block-heading">想定されるインパクト</h3>
<ul class="wp-block-list">
<li><p><strong>より自然な人間とAIのインタラクション</strong>: キーボードや画面操作を介さず、まるで人間同士が会話するように、視覚的・聴覚的な情報共有を通じてAIとコミュニケーションできる未来が近づきます。</p></li>
<li><p><strong>多様な専門領域でのアシスタンス</strong>: 教育、医療、エンジニアリング、デザインなど、視覚情報が重要な役割を果たすあらゆる分野で、AIがリアルタイムで状況を認識し、適切なガイダンスを提供できるようになる可能性があります。例えば、修理作業中にAIがリアルタイムで手順を指示したり、学習中にAIが目の前の教材を解説したりといった応用が考えられます。</p></li>
<li><p><strong>AIの「知覚」能力の向上</strong>: 単なる情報検索を超え、周囲の環境や文脈を深く理解し、記憶に基づいて推論する能力は、AIをより賢く、より役立つ存在に変えるでしょう。</p></li>
<li><p><strong>新デバイスの可能性</strong>: スマートグラスやARデバイスなど、ウェアラブルな形態でのAIエージェントとの連携が加速し、新しいユーザー体験を生み出す可能性があります。</p></li>
</ul>
<h3 class="wp-block-heading">今後の展望と課題</h3>
<p>Project Astraはまだ研究開発段階であり、具体的な製品としての提供時期は明言されていません。実用化に向けては、以下の課題に取り組む必要があります。</p>
<ul class="wp-block-list">
<li><p><strong>処理の高速化と効率化</strong>: リアルタイムでのマルチモーダル処理には、膨大な計算リソースが必要です。デバイス上での軽量化や、クラウドとエッジの連携による効率的な処理が求められます。</p></li>
<li><p><strong>汎用性と堅牢性</strong>: デモのような限られた環境だけでなく、多様な照明条件、騒音、予測不能な状況下でも安定して動作する汎用性と堅牢性の確保が重要です。</p></li>
<li><p><strong>倫理とプライバシー</strong>: 常に周囲の環境を「見聞き」するAIエージェントは、プライバシー侵害やデータの悪用といった倫理的な懸念を引き起こす可能性があります。透明性のある設計、データ保護、ユーザーによる制御が不可欠です。</p></li>
<li><p><strong>安全な応答生成</strong>: AIが誤った情報や不適切な指示を出さないよう、安全対策と責任あるAI開発の原則を徹底する必要があります。</p></li>
</ul>
<h2 class="wp-block-heading">まとめ</h2>
<p>Google DeepMindが発表した「Project Astra」は、リアルタイムマルチモーダルAIエージェントの可能性を大きく広げる画期的なプロジェクトです。Geminiモデルを基盤とし、視覚と音声を通じて世界を理解し、人間と自然にインタラクションするその姿は、SFの世界が現実となる日を予感させます。技術的な課題や倫理的側面を乗り越えつつ、このプロジェクトが未来のAIアシスタントのあり方をどのように再定義していくのか、今後の進展が注目されます。</p>
<hr/>
<h3 class="wp-block-heading">参考文献</h3>
<p>[1] Google DeepMind. “Introducing Project Astra: Our vision for the future of AI agents”. Google DeepMind Blog, May 14, 2024. <a href="https://blog.google/technology/ai/project-astra-google-gemini-ai-agents/">https://blog.google/technology/ai/project-astra-google-gemini-ai-agents/</a>
[2] Google Developers. “Google I/O ’24 Keynote”. YouTube, May 14, 2024. (Project Astraのデモは動画の21:00頃から確認できます) <a href="https://www.youtube.com/watch?v=F3Hrt8d_i7c">https://www.youtube.com/watch?v=F3Hrt8d_i7c</a></p>
マルチモーダルAI",
"secondary_categories": ["Google DeepMind","Google I/O"],
"tags": ["Project Astra","Gemini","マルチモーダル","AIエージェント","リアルタイムAI"],
"summary": "Google DeepMindが発表した「Project Astra」は、リアルタイムな視覚・聴覚処理で人間のように対話する汎用AIエージェントプロジェクト。Geminiを基盤とし、未来のAIインタラクションを予見します。",
"mermaid": true,
"verify_level": "L0",
"tweet_hint": {"text":"GoogleのProject Astraは、リアルタイムで視覚・聴覚を理解し、人間のように対話する汎用AIエージェントの未来を提示。Google I/O 2024で披露され、Geminiモデルを基盤としています。#ProjectAstra #AIエージェント #GoogleIO2024","hashtags":["#ProjectAstra","#AIエージェント","#GoogleIO2024"]},
"link_hints": ["https://blog.google/technology/ai/project-astra-google-gemini-ai-agents/","https://www.youtube.com/watch?v=F3Hrt8d_i7c"]
}
-->
本記事はGeminiの出力をプロンプト工学で整理した業務ドラフト(未検証)です。
Googleの「Project Astra」が描く汎用AIエージェントの未来
ニュース要点
2024年5月14日(JST)、Google DeepMindはGoogle I/O 2024の基調講演で、リアルタイムマルチモーダルAIエージェントのビジョンを示す「Project Astra」を発表しました。このプロジェクトは、視覚と音声の情報を同時に処理し、人間と自然に、かつ瞬時にインタラクションできる汎用AIエージェントの実現を目指しています。発表では、カメラ映像を通して周囲の環境を認識し、ユーザーの質問に即座に答えるデモンストレーションが披露され、未来のAIアシスタント像が具体的に示されました[1]。
技術的背景:進化するマルチモーダルAI
Project Astraは、近年急速に進歩しているマルチモーダルAI技術の最先端に位置します。従来のAIがテキストや画像、音声といった単一のモダリティ(形式)をそれぞれ独立して処理していたのに対し、マルチモーダルAIはこれらを統合的に理解し、相互の関係性を踏まえて推論する能力を持ちます。GoogleのGeminiモデルはその代表例であり、テキスト、画像、音声、動画を一度に入力・処理できる設計が特徴です。
Project Astraは、このGeminiモデルを基盤として、特に「リアルタイム性」と「文脈理解」を極限まで高めることを目指しています。人間との自然な対話では、視覚的な手がかり(指差し、表情など)や過去の会話履歴といった文脈が不可欠です。AIエージェントがこれらの要素を瞬時に捉え、適切な応答を生成するためには、単に複数のモダリティを処理するだけでなく、高度な知覚、記憶、推論の統合が必要となります。
Project Astraの仕組み
Project Astraは、周囲の世界を「知覚」し、ユーザーと「対話」するための高度なアーキテクチャを採用しています。
構成とデータフロー
Project Astraの主要な構成要素とデータフローは以下の通りです。
graph TD
A["ユーザー"] --|音声/視覚入力| B("エージェントデバイス: カメラ/マイク")
B --|リアルタイムストリーム| C{"マルチモーダルエンコーダー"}
C --|エンコードされたデータ| D["Gemini基盤モデル"]
D --|記憶/文脈維持| E["長期記憶/文脈データベース"]
E --|過去情報| D
D --|リアルタイム推論/応答生成| F{"応答生成モジュール"}
F --|音声合成| G["エージェントデバイス: スピーカー"]
G --|音声出力| A
B --|高フレームレート映像| H["環境認識モジュール"]
H --|視覚的分析結果| D
エージェントデバイス (B, G): カメラとマイクを通じてユーザーの視覚情報(周囲の環境、ユーザーの動き)と音声情報をリアルタイムで収集します。応答はスピーカーから音声として出力されます。
マルチモーダルエンコーダー (C): カメラからの映像ストリームとマイクからの音声ストリームを、Gemini基盤モデルが理解できる形式にエンコードします。この処理はリアルタイムで行われ、低遅延が求められます。
Gemini基盤モデル (D): Project Astraの中核であり、エンコードされたマルチモーダル入力と、長期記憶/文脈データベースから取得した過去の情報を統合して理解し、リアルタイムで推論を行います。これにより、複雑な状況判断や自然な対話が実現されます。Google DeepMindの発表では、Gemini 1.5 Proのマルチモーダル推論機能を大幅に高速化したと説明されています[1]。
長期記憶/文脈データベース (E): 過去の対話履歴、観察結果、ユーザーが提供した情報などを記憶し、現在の対話の文脈を維持するために利用されます。これにより、AIエージェントは一貫性のある、よりパーソナルな応答が可能になります。
応答生成モジュール (F): Gemini基盤モデルによる推論結果に基づき、適切な音声応答を生成します。
環境認識モジュール (H): カメラからの高フレームレート映像を分析し、オブジェクト認識、空間理解、ユーザーの指示(指差しなど)の解釈を行います。これらの視覚的分析結果はGemini基盤モデルにフィードバックされ、推論に利用されます。
概念的な実装イメージ
Project AstraはまだAPIとして公開されていませんが、リアルタイムマルチモーダル入力を受け取り、AIモデルで処理する概念的な流れをPythonで示すと以下のようになります。
import time
class MultimodalInput:
"""
マルチモーダル入力をシミュレートするクラス。
実際にはカメラやマイクからリアルタイムストリームを受け取る。
"""
def __init__(self):
self.frame_count = 0
def get_vision_frame(self):
"""カメラフレームをシミュレート"""
self.frame_count += 1
return f"視覚フレーム {self.frame_count} (時刻: {time.time():.2f})"
def get_audio_chunk(self):
"""音声チャンクをシミュレート"""
return f"音声チャンク (時刻: {time.time():.2f})"
class GeminiLikeModel:
"""
GeminiのようなマルチモーダルAIモデルをシミュレートするクラス。
"""
def __init__(self):
self.memory = [] # 長期記憶の簡略化
def process_multimodal_input(self, vision_data, audio_data, current_context):
"""
視覚データと音声データを基に推論を行う。
Args:
vision_data (str): 視覚フレームデータ。
audio_data (str): 音声チャンクデータ。
current_context (list): 現在の会話の文脈や過去の記憶。
Returns:
str: AIの応答。
"""
print(f"--- モデル処理開始 ---")
print(f" 視覚入力: {vision_data}")
print(f" 音声入力: {audio_data}")
print(f" 文脈/記憶: {current_context}")
# 実際のモデルでは複雑な推論が行われる
response = f"AI応答: {vision_data} と {audio_data} を理解しました。"
if "メガネ" in audio_data:
response += " メガネをお探しですか?"
# 記憶の更新をシミュレート
self.memory.append({"vision": vision_data, "audio": audio_data, "response": response})
print(f"--- モデル処理終了 ---")
return response
# 使用例
if __name__ == "__main__":
input_device = MultimodalInput()
ai_model = GeminiLikeModel()
context = [] # 現在の会話文脈
# リアルタイム処理のループをシミュレート
for i in range(3):
print(f"\n--- 処理サイクル {i+1} ---")
vision_frame = input_device.get_vision_frame()
audio_chunk = input_device.get_audio_chunk()
# 文脈を過去の記憶から構築
current_context = ai_model.memory[-2:] if len(ai_model.memory) > 0 else []
response = ai_model.process_multimodal_input(vision_frame, audio_chunk, current_context)
print(f"AIからの応答: {response}")
time.sleep(1) # リアルタイム処理の遅延をシミュレート
# ユーザーが「メガネどこ?」と尋ねた場合をシミュレート
print("\n--- ユーザーが「メガネどこ?」と尋ねる ---")
vision_frame = input_device.get_vision_frame() # ユーザー周辺の視覚情報
audio_chunk = "ユーザー: 私のメガネはどこですか?"
current_context = ai_model.memory[-2:] # 直前のやり取りを文脈に含める
response = ai_model.process_multimodal_input(vision_frame, audio_chunk, current_context)
print(f"AIからの応答: {response}")
入出力: MultimodalInputクラスが視覚フレームと音声チャンクを生成し、GeminiLikeModelがこれらを受け取って応答を生成します。
前提: カメラやマイクからのリアルタイムストリームは抽象化されています。AIモデルの推論は瞬時に行われると仮定しています。
計算量/メモリ条件: 実際のGeminiモデルの処理は非常に高い計算資源とメモリを要求しますが、この概念コードではその側面は省略しています。リアルタイム処理のためには、低遅延でのデータ入出力とGPU/TPUによる高速並列処理が不可欠です。
インパクトと今後の展望
Project Astraは、AIが人間の生活にどのように統合されていくかについて、非常に大きな示唆を与えます。
想定されるインパクト
より自然な人間とAIのインタラクション: キーボードや画面操作を介さず、まるで人間同士が会話するように、視覚的・聴覚的な情報共有を通じてAIとコミュニケーションできる未来が近づきます。
多様な専門領域でのアシスタンス: 教育、医療、エンジニアリング、デザインなど、視覚情報が重要な役割を果たすあらゆる分野で、AIがリアルタイムで状況を認識し、適切なガイダンスを提供できるようになる可能性があります。例えば、修理作業中にAIがリアルタイムで手順を指示したり、学習中にAIが目の前の教材を解説したりといった応用が考えられます。
AIの「知覚」能力の向上: 単なる情報検索を超え、周囲の環境や文脈を深く理解し、記憶に基づいて推論する能力は、AIをより賢く、より役立つ存在に変えるでしょう。
新デバイスの可能性: スマートグラスやARデバイスなど、ウェアラブルな形態でのAIエージェントとの連携が加速し、新しいユーザー体験を生み出す可能性があります。
今後の展望と課題
Project Astraはまだ研究開発段階であり、具体的な製品としての提供時期は明言されていません。実用化に向けては、以下の課題に取り組む必要があります。
処理の高速化と効率化: リアルタイムでのマルチモーダル処理には、膨大な計算リソースが必要です。デバイス上での軽量化や、クラウドとエッジの連携による効率的な処理が求められます。
汎用性と堅牢性: デモのような限られた環境だけでなく、多様な照明条件、騒音、予測不能な状況下でも安定して動作する汎用性と堅牢性の確保が重要です。
倫理とプライバシー: 常に周囲の環境を「見聞き」するAIエージェントは、プライバシー侵害やデータの悪用といった倫理的な懸念を引き起こす可能性があります。透明性のある設計、データ保護、ユーザーによる制御が不可欠です。
安全な応答生成: AIが誤った情報や不適切な指示を出さないよう、安全対策と責任あるAI開発の原則を徹底する必要があります。
まとめ
Google DeepMindが発表した「Project Astra」は、リアルタイムマルチモーダルAIエージェントの可能性を大きく広げる画期的なプロジェクトです。Geminiモデルを基盤とし、視覚と音声を通じて世界を理解し、人間と自然にインタラクションするその姿は、SFの世界が現実となる日を予感させます。技術的な課題や倫理的側面を乗り越えつつ、このプロジェクトが未来のAIアシスタントのあり方をどのように再定義していくのか、今後の進展が注目されます。
参考文献
[1] Google DeepMind. “Introducing Project Astra: Our vision for the future of AI agents”. Google DeepMind Blog, May 14, 2024. https://blog.google/technology/ai/project-astra-google-gemini-ai-agents/
[2] Google Developers. “Google I/O ’24 Keynote”. YouTube, May 14, 2024. (Project Astraのデモは動画の21:00頃から確認できます) https://www.youtube.com/watch?v=F3Hrt8d_i7c
コメント