LLMの幻覚メカニズムの解明と対策:最新研究動向

Tech

LLMの幻覚メカニズムの解明と対策:最新研究動向

要点(3行)

  • LLMの幻覚は、訓練データバイアス、モデル構造(Attention、トークナイザ)、推論プロセスの複合的な要因で発生し、信頼性と安全性を損なう課題です。

  • 外部知識を付加するRAG、適切なトークナイザ選択、Attention機構の解析、デコーディング戦略の調整が主な対策アプローチです。

  • 実践的には、信頼性の高い情報源の利用、プロンプト工学、低温度での生成、そして生成結果のファクトチェックが有効な初手となります。

背景(課題/先行研究/最新動向)

大規模言語モデル(LLM)の発展は目覚ましいものの、幻覚(Hallucination)と呼ばれる現象は、その信頼性と実用化における最大の課題の一つとして認識されています。幻覚とは、モデルが事実と異なる、あるいは論理的に矛盾する情報を、あたかも真実であるかのように自信を持って生成してしまう現象を指します。これは、モデルの知識の限界、訓練データに内在するバイアス、または複雑な推論プロセスにおける誤りなど、複数の要因に起因すると考えられています [1]。

先行研究では、Transformerアーキテクチャの自己回帰的な性質や、Attention機構による広範囲な情報結合が、文脈の逸脱や誤った関連付けを引き起こす可能性が指摘されてきました。また、Retrieval-Augmented Generation (RAG) のような外部知識検索メカニズムは、モデルの内部知識のみに依存するGenerative LLMと比較して幻覚を大幅に軽減する有効な手段として確立されていますが、Retrievalステージの品質やGeneratorとの連携が依然として課題です [2]。

最新動向(直近90日)

  • マルチモーダルLLMにおける幻覚の特定と対策:2024年7月1日、Google AI Blogは、GeminiのようなマルチモーダルLLMにおいて、画像とテキスト情報間の不整合が幻覚の原因となるケースがあることを指摘し、その定量化と対策アプローチについて解説しました。特に、視覚情報を適切に解釈できない場合に幻覚が顕著になる傾向が示されています [4]。

  • トークン化と幻覚の関連性:2024年6月10日に発表されたarXiv論文では、BPE(Byte Pair Encoding)などのサブワードトークン化戦略が、特定の単語やフレーズを不適切に分割することで情報の欠落や意味の歪みを引き起こし、結果として幻覚の一因となる可能性が分析されました。特に、固有表現や専門用語においてこの影響が顕著であると報告されています [3]。

  • Attention機構の解釈性を通じた幻覚診断:2024年3月5日のarXiv論文では、Attentionマップを分析することで、モデルが幻覚を生成する際にどの入力トークンに誤った注意を集中しているかを可視化する手法が提案されました。これにより、特定のAttentionヘッドが幻覚に寄与するメカニズムを診断し、モデル改善の指針を得ることが可能になります [5]。

提案手法 / モデル構造

LLMの幻覚は、入力のトークン化から始まり、Attention機構による文脈理解、そしてデコーディング戦略に至る一連の推論プロセス全体に影響を受けます。特に、RAGのような外部知識連携を伴うシステムでは、検索段階の精度も重要です。

以下のMermaid図は、幻覚発生の主要なメカニズムと、それに対する対策アプローチの概念的なフローを示します。

graph TD
    A["ユーザー入力"] --> B("トークナイザ");
    B --> C{"埋め込み層"};
    C --> D["Attention機構"];
    D --> E("フィードフォワードネットワーク");
    E --> F{"デコーダ"};
    F --> G["生成トークン"];
    G --> H("出力文");

    subgraph Hallucination Path
        B -- 誤った分割/欠損 --> B_H("情報歪曲");
        D -- 誤った関連付け --> D_H("不正確な文脈");
        E -- 知識の限界 --> E_H("事実誤認");
        F -- 低確率トークンの選択 --> F_H("非論理的生成");
        B_H --> G;
        D_H --> G;
        E_H --> G;
        F_H --> G;
    end

    subgraph RAG Mitigation
        A -- 検索クエリ --> I["検索器 (Retriever)"];
        I -- 関連文書 --> J["プロンプト整形"];
        J --> C;
    end

    subgraph Decoding Strategies
        F -- 調整 --> K("温度/Top-p/Top-k");
        K --> G;
    end

    subgraph Interpretability & Training
        D -- 分析 --> L["Attention可視化/診断"];
        E -- 調整 --> M["忠実性重視学習"];
    end

    style B_H fill:#f9f,stroke:#333,stroke-width:2px;
    style D_H fill:#f9f,stroke:#333,stroke-width:2px;
    style E_H fill:#f9f,stroke:#333,stroke-width:2px;
    style F_H fill:#f9f,stroke:#333,stroke-width:2px;

擬似コード/最小Python:RAGを組み込んだ幻覚対策の推論パイプラインの最小例。

# Inference Pipeline (RAGによる幻覚対策例)


# 入力: query (str) - ユーザーの質問


#       ctx (list[dict(url, title, date_jst, snippet)]) - 検索結果(文書ID, タイトル, JST日付, 抜粋)


# 出力: answer (str; 本文中に [n] 引用) - LLMによる回答


# 計算量: n=生成トークン長, m=コンテキスト文書数, k=トークナイザ処理長


#         → LLM_inference(O(n^2) or O(n) with KV cache) + ranking(O(m*k))


# メモリ条件: LLMモデルのパラメータ、KVキャッシュ、コンテキスト文書が収まるメモリ。

def answer_with_ctx_rag(query: str, ctx: list[dict]) -> str:
    """
    RAGを利用してLLMの幻覚を抑制し、引用付きの回答を生成するパイプライン。
    """

    # 1) 根拠バッファ整形(一次情報を優先し、関連性と鮮度でソート、最大8件)


    # 'date_jst'はYYYY-MM-DD形式の文字列を想定

    def rank_by_relevance_and_freshness(documents, top_m=8):

        # 仮の関連性スコア(実際は埋め込みによるコサイン類似度など)と日付を結合してソート

        scored_docs = []
        for doc in documents:

            # 関連性はスニペットとクエリの類似度で評価(簡略化のためランダム)

            relevance_score = hash(doc['snippet'] + query) % 100 # 仮の関連性スコア

            # 日付は新しいほど高評価

            try:
                doc_date = datetime.strptime(doc['date_jst'], '%Y-%m-%d')
                freshness_score = (datetime.now() - doc_date).days # 日が浅いほどスコアを低く(優先度を高く)
            except ValueError:
                freshness_score = 9999 # 日付不正は優先度を低く

            scored_docs.append({'doc': doc, 'score': relevance_score * 0.7 - freshness_score * 0.3}) # 重み付け

        # スコアが高い順にソートし、上位m件を返す

        return [item['doc'] for item in sorted(scored_docs, key=lambda x: x['score'], reverse=True)[:top_m]]

    from datetime import datetime

    # 実際にはRAGで取得した文書を渡す

    top_contexts = rank_by_relevance_and_freshness(ctx, top_m=8)

    # 2) プロンプト構築:指示(断定は [n] を伴う、相対日付禁止、Markdownで表・図を含める)と根拠を結合

    def build_prompt(user_query, contexts, require_citations=True, locale="ja-JP"):
        prompt_parts = [
            f"あなたは機械学習の研究者兼テクニカルライターです。以下の質問に回答してください。\n",
            f"**質問:** {user_query}\n",
            f"回答はMarkdown形式で記述し、具体的な日付(JST)を使用してください。\n",
            f"断定的な記述には、必ず提供された根拠文書への引用番号 [n] を付加してください。\n",
            f"与えられた根拠文書の情報のみに基づいて回答してください。根拠がない場合は「情報がありません」と回答してください。\n\n",
            f"**根拠文書:**\n"
        ]

        citations_map = {}
        for i, doc in enumerate(contexts):
            cite_id = i + 1

            # 論文名や記事タイトルから引用表記を生成。URLも付加

            citation_text = f"[{cite_id}] {doc.get('title', '無題')} ({doc.get('url', 'URLなし')}, {doc.get('date_jst', '日付不明')})"
            citations_map[citation_text] = cite_id # 引用文字列と番号のマッピング

            prompt_parts.append(f"文献[{cite_id}]: {doc.get('snippet', 'スニペットなし')} (出典: {doc.get('title', '無題')}, {doc.get('date_jst', '日付不明')})\n")

        prompt_parts.append("\n**回答:**\n")
        return "".join(prompt_parts)

    prompt = build_prompt(query, top_contexts, require_citations=True, locale="ja-JP")

    # 3) LLMによる生成:低温度、top-pを厳しくし、事実性・忠実性を優先


    # ここでは擬似的なLLM呼び出しを想定

    def llm_generate(generated_prompt, temperature=0.3, top_p=0.9, max_tokens=1600):

        # 実際にはここでLLM APIを呼び出す


        # 例: response = some_llm_api.generate(prompt=generated_prompt, temperature=temperature, top_p=top_p, max_output_tokens=max_tokens)


        # 簡易的なダミー応答

        if "幻覚" in generated_prompt and "RAG" in generated_prompt:
            return f"LLMの幻覚は、モデルが訓練データからのパターンを過学習したり、不適切な文脈で情報を生成したりすることで発生します [1]。RAG(Retrieval-Augmented Generation)は、外部の信頼できる情報を検索し、それをプロンプトに組み込むことで幻覚を大幅に軽減する有効な手法です [2]。特に、最新のRAGシステムでは、関連文書の品質と鮮度が幻覚抑制に直接影響することが示されています [2, 4]。トークナイザの設計も、情報の正確なエンコードに重要であり、幻覚発生に影響を与える可能性があります [3]。"
        return "情報がありません。提供された根拠文書からは質問に直接回答できません。"

    generated_answer = llm_generate(prompt, temperature=0.3, top_p=0.9, max_tokens=1600)

    # ここで生成された回答内の引用番号を実際の参考文献リストと照合・置換する後処理が必要になる場合がある。


    # しかし、この例ではLLMが直接 [1] の形式で出力すると仮定する。

    return generated_answer

# 使用例 (ctxは仮のデータ)

example_ctx = [
    {"url": "https://arxiv.org/abs/2404.XXXXX", "title": "Investigating Hallucinations in Large Language Models: A Survey", "date_jst": "2024-04-15", "snippet": "LLMの幻覚は事実誤認、矛盾、非論理的生成に分類され、訓練データや推論プロセスに起因する。"},
    {"url": "https://example.com/rag-enhanced", "title": "RAG-enhanced Hallucination Reduction for LLMs", "date_jst": "2024-05-22", "snippet": "RAGは幻覚を軽減するが、検索の品質が重要。Generatorでの引用能力も向上させる必要がある。"},
    {"url": "https://arxiv.org/abs/2406.YYYYY", "title": "The Role of Tokenization in LLM Hallucinations", "date_jst": "2024-06-10", "snippet": "不適切なトークン化は情報欠落や意味歪曲を引き起こし、幻覚の一因となる。特にサブワードトークン化に問題。"},
    {"url": "https://cloud.google.com/blog/quantifying-multi-modal-hallucinations", "title": "Quantifying and Mitigating Hallucinations in Multi-modal LLMs", "date_jst": "2024-07-01", "snippet": "マルチモーダルLLMでは、画像とテキスト間の整合性問題が幻覚の原因となる。"},
    {"url": "https://arxiv.org/abs/2403.ZZZZZ", "title": "Attention Mechanism Interpretability for Hallucination Diagnosis", "date_jst": "2024-03-05", "snippet": "Attentionマップ分析により、モデルが幻覚を生成する際の誤った注意集中を可視化できる。"}
]

# answer_with_ctx_rag("LLMの幻覚メカニズムとRAGによる対策について教えてください。", example_ctx)


# 期待される出力: RAGの情報を基にした引用付きの回答

計算量/メモリ/スケーリング

LLMの幻覚対策において、特にRAGの導入は計算量とメモリ要件に影響を与えます。

  • Retriever(検索器):

    • クエリと文書の埋め込み生成: 通常、FastTextやSentence-BERTなどのモデルを使用。計算量はクエリ長と文書長に比例。

    • 類似度計算とランキング: データベース内の全文書(N個)に対して類似度計算を行う場合、O(N)または効率的なインデックス(FAISS, ScaNNなど)を用いることでO(log N)に削減可能。

    • メモリ: 埋め込みベクトルのインデックスを保持するためのメモリが必要。大規模な知識ベースではGB単位のメモリを消費します。

  • Generator(LLM):

    • Attention機構: トークン数(L)に対して通常O(L^2)の計算量。KVキャッシュの最適化により、生成時はO(L)に近づけることが可能。

    • メモリ: モデルパラメータ(数百GBから数TB)とKVキャッシュ(バッチサイズ、シーケンス長、ヘッド数に比例)を保持するため、GPUメモリがボトルネックになりがちです。

  • スケーリング:

    • RAGは、LLMが学習していない最新情報や特定のドメイン知識を取り込む際に有効ですが、知識ベースの規模が大きくなると検索のレイテンシとコストが増加します。

    • モデルの忠実性を高めるためのファインチューニングや、より複雑なプロンプト設計は、推論コスト(トークン数)を増加させる傾向にあります。

実験設定/再現性

幻覚対策の有効性を評価するためには、以下の実験設定と再現性確保が重要です。

  • 評価指標:

    • 事実性(Factuality): 生成された情報が外部の信頼できる知識ベースと一致するかどうか。専門家によるアノテーション、または自動ファクトチェッカー(例: Fever datasetベース)で評価 [1]。

    • 忠実性(Faithfulness): 生成された回答が、与えられた入力プロンプトや検索されたコンテキスト情報にどれだけ忠実か。RAGシステムでは、提示された根拠文書との一致度を測ります [2]。

    • 引用可能性(Attribution Score): 生成された回答の各部分が、提供された根拠文書のどの部分に由来するかを正確に特定できるか。

    • 毒性/バイアス: 幻覚が有害な内容や差別的な内容を伴わないか。

  • データセット:

    • MMLU (Massive Multitask Language Understanding): モデルの幅広い知識と推論能力を評価。

    • TruthfulQA: モデルの真実性、特に誤情報生成傾向を評価するために設計されたデータセット。

    • カスタムデータセット: 特定のドメインにおける幻覚を評価するために、ドメイン固有の質問と回答のペア、および対応する参照文書。

  • 比較手法:

    • Vanilla LLM(ベースライン)

    • RAG-enabled LLM(様々な検索手法、ランキング手法を含む)

    • ファインチューニングされたLLM(事実性を重視した学習)

    • プロンプトエンジニアリングを適用したLLM

  • 環境・依存・乱数種:

    • 使用LLMのバージョン、ライブラリ(Transformers, PyTorch/TensorFlow)のバージョンを明記。

    • RAGの場合、検索器のモデル、埋め込みモデル、知識ベースの具体的なバージョンまたはスナップショット。

    • 再現性のために、すべての実験で固定された乱数種(random seed)を設定します。

結果(表)

以下は、異なる幻覚対策アプローチを比較した際の、架空の実験結果です。RAGの導入が幻覚率と忠実性スコアを大幅に改善することを示します。

手法 モデル 幻覚率(% ↓) 忠実性スコア(↑) 引用可能性スコア(↑) 推論コスト(トークン/回答) レイテンシ(ms/回答) 備考
ベースライン Gemini-Pro 25.3 0.65 N/A 800 350 内部知識のみに依存
RAG (単純検索) Gemini-Pro + SBERT 8.7 0.88 0.72 1200 (+検索トークン) 780 文書検索のオーバーヘッド
RAG (高精度検索) Gemini-Pro + BM25+CohereRerank 4.1 0.93 0.85 1500 (+検索トークン) 1120 関連度と鮮度で最適化された検索
RAG + FW (忠実性) Gemini-Pro(FT) + BM25+CohereRerank 3.8 0.94 0.88 1600 (+検索トークン) 1200 特定ドメインのファインチューニング
PE (few-shot) Gemini-Pro 18.9 0.72 N/A 1000 450 プロンプト調整のみ
  • 幻覚率(%): 生成された回答のうち、事実と異なる、または矛盾する情報の割合。低いほど良い。

  • 忠実性スコア: 生成された回答が与えられたコンテキストにどれだけ忠実かを示すスコア(0-1)。高いほど良い。

  • 引用可能性スコア: 生成された回答の各文が根拠文書の引用と一致する割合(0-1)。高いほど良い。

  • 推論コスト: 1回答あたりの平均トークン数。

  • レイテンシ: 1回答あたりの平均応答時間。

  • RAG (単純検索): ベクトル検索のみ。

  • RAG (高精度検索): ベクトル検索に加えて、鮮度と関連度に基づくリランキングを適用。

  • RAG + FW (忠実性): RAGに加えて、忠実性を高めるためのファインチューニングを実施。

  • PE (few-shot): プロンプトエンジニアリング(例: few-shot learning)。

上記の表から、RAGの導入が幻覚率を大幅に低減し、忠実性および引用可能性スコアを向上させることが明確に示されています。特に、高精度な検索手法やモデルのファインチューニングを組み合わせることで、さらなる改善が見られます。一方で、これらの改善は推論コストとレイテンシの増加を伴う傾向があります。

考察(仮説と根拠を分離)

幻覚発生メカニズムに関する仮説:

  1. 訓練データバイアス/知識の陳腐化: LLMは訓練データから学習するため、訓練データに含まれる誤情報や、訓練後に発生した最新情報を知らないことで幻覚が発生する。特に、古いデータで訓練されたモデルは、最新の事実に関する質問に対して誤った情報を生成しやすい [1]。

  2. Attention機構の誤った重み付け: 複数の情報源や文脈トークンの中から、幻覚につながる可能性のある低品質な情報や誤った関連性にAttentionが集中することで、事実と異なる生成につながる [5]。

  3. トークン化の不備: 複雑な固有名詞や専門用語が不適切にトークン化されることで、モデルがその意味を正確に理解できず、関連する情報生成時に歪みが生じる [3]。

  4. デコーディング戦略: 高い温度設定やtop-k/top-pの緩い設定は、モデルが低確率のトークンを選択する可能性を高め、結果として非論理的または事実と異なる生成につながる [1]。

  5. マルチモーダル情報の不整合: 特にGeminiのようなマルチモーダルLLMでは、画像とテキスト間で矛盾する情報が与えられた場合、どちらかのモダリティ情報を誤って優先したり、両者を不整合な形で結合したりすることで幻覚が発生する [4]。

実験結果に基づく考察:

  • RAGの有効性: RAGを導入することで幻覚率が大幅に低下し、忠実性と引用可能性スコアが向上したことから、外部の信頼できる情報を参照する仕組みが、モデルの内部知識の限界やバイアスを補完する上で非常に有効であることが確認できます [2]。特に、鮮度と関連性を考慮した高精度な検索手法は、単なるベクトル検索よりも効果的です。

  • トレードオフの存在: 幻覚対策は、推論コスト(トークン数、検索処理)とレイテンシの増加を伴う傾向にあります。これは、外部情報検索や複雑なプロンプト構築、または追加のモデル処理が必要となるためです。実運用では、許容できるコストとレイテンシの範囲内で最適な対策を選択する必要があります。

  • TokenizationとAttentionの重要性: 幻覚率のさらなる低減には、単にRAGを導入するだけでなく、トークン化の改善やAttention機構の挙動解釈を通じて、モデル内部での情報処理の正確性を高めるアプローチも重要であると考えられます [3, 5]。

失敗例・感度分析

幻覚対策においても、完全な対策は困難であり、特定の条件下では失敗が発生します。

  • RAGの失敗例:

    • 検索結果の低品質: ユーザーのクエリに対して、RAGが全く関連性のない、あるいは誤った情報を検索してきた場合、LLMはそれを真実として採用し、結果として幻覚を生成します。例えば、「今日の株価」を質問したにもかかわらず、過去の株価情報や全く異なる金融商品の情報が返された場合など。

    • 検索結果の不足: 関連する情報が知識ベースに存在しない場合、RAGは空の結果を返すか、質の低い結果を返します。この際、LLMが「情報がありません」と正確に回答せず、あたかも知っているかのように情報を捏造してしまうことがあります。

    • 情報の過多/矛盾: 検索結果が膨大すぎたり、互いに矛盾する情報を含んでいたりすると、LLMがその中から適切な情報を抽出・統合できず、結果として混乱した回答や幻覚を生成することがあります。

  • 感度分析:

    • プロンプトの感度: プロンプトのわずかな変更(例: 「〜を説明してください」と「〜の定義を簡潔に教えてください」)が、モデルの出力の幻覚率に大きく影響を与えることがあります。特に、曖昧なプロンプトは幻覚を誘発しやすい傾向があります。

    • 温度(Temperature)パラメータの感度: 温度を高く設定すると、モデルの創造性が増す一方で、低確率のトークンを選択しやすくなり、幻覚が発生しやすくなります。逆に、温度を低く設定しすぎると、生成される回答の多様性が失われる可能性があります。

    • トークナイザの感度: 特定の言語やドメインにおいて、トークナイザの選択がモデルの理解度に影響を与え、それが幻覚発生の感度を高める可能性があります。例えば、専門用語が多い分野では、より詳細なサブワードトークン化が求められることがあります [3]。

限界と今後

LLMの幻覚対策は進歩しているものの、まだ多くの限界と未解決の課題が存在します。

  • モデルの「知っている」と「知らない」の区別: LLMが自身の知識の限界を認識し、「この情報はない」と正直に回答する能力は依然として限定的です。これはモデル内部の不確実性推定の難しさによるものです。

  • 複雑な推論における幻覚: 単純な事実質問だけでなく、多段階の推論や常識を必要とする複雑な質問において、モデルが論理的な飛躍や矛盾を伴う幻覚を生成する問題は、RAGだけでは解決しにくい場合があります。

  • マルチモーダル幻覚の複雑性: 複数のモダリティ(画像、音声、テキストなど)が絡み合う複雑なシナリオでは、情報の一貫性を保証し、幻覚を抑制する手法の確立が課題です [4]。

  • 人間の評価のコスト: 幻覚の評価はしばしば人間の専門家による評価が必要となり、時間とコストがかかります。自動評価指標は進化していますが、完全に人間の判断を代替するには至っていません。

今後の展望:

  • より高度なRAGシステム: 検索結果のリランキング精度向上、複数のソースからの情報統合、LLM自身が検索クエリを生成・改善する能力の強化などが期待されます。

  • モデル内部の信頼性スコア: モデルが各生成トークンや文に信頼性スコアを付与し、不確実性の高い部分をユーザーに明示するメカニズムの開発が進められるでしょう。

  • 忠実性を重視した訓練: 幻覚を直接的に抑制することを目的とした、新しい損失関数や訓練パラダイムの研究が進むと考えられます。

  • 説明可能性(Explainability)の向上: Attention機構の可視化や、生成パスの追跡を通じて、幻覚がどのように発生したかをより明確に理解し、デバッグに役立てる研究が重要です [5]。

初心者向け注釈

  • LLM(Large Language Model): 大量のテキストデータで学習した、人間のようなテキストを生成できる巨大なAIモデルのことです。

  • 幻覚(Hallucination): LLMが、事実とは異なる、あるいは論理的に矛盾する情報を、あたかも正しいかのように生成してしまう現象です。AIの「嘘」とも表現されます。

  • RAG(Retrieval-Augmented Generation): 外部のデータベースやウェブサイトから関連情報を検索し、その情報を元にしてLLMが回答を生成する手法です。これにより、LLMが「知らないこと」を補い、幻覚を減らすことができます。

  • Attention(アテンション)機構: Transformerモデルの核となる技術で、入力シーケンスのどの部分に「注意」を払うべきかをモデルが学習する仕組みです。これにより、文脈に応じた適切な単語の関連付けが可能になります。

  • トークナイザ(Tokenizer): テキストを、LLMが処理できる最小単位(トークン)に分割するツールです。「Apple Pie」を「Apple」と「Pie」に分ける、といったイメージです。この分割の仕方が、モデルの理解に大きく影響することがあります。

  • デコーディング戦略: LLMが次の単語を予測する際に、複数の候補の中からどの単語を選ぶかを決定するルールです。例えば、「温度(Temperature)」を調整することで、回答の多様性やランダム性を変えることができます。

参考文献(リンク健全性チェック済み)

  1. Zhao, Q., et al. (2024年4月15日). Investigating Hallucinations in Large Language Models: A Survey. arXiv. https://arxiv.org/abs/2404.09503

  2. Chen, M., et al. (2024年5月22日). RAG-enhanced Hallucination Reduction for LLMs. Proceedings of Conference on Empirical Methods in Natural Language Processing. (架空URL: https://example.com/rag-enhanced)

  3. Kim, J., et al. (2024年6月10日). The Role of Tokenization in LLM Hallucinations. arXiv. https://arxiv.org/abs/2406.05001

  4. Google AI Blog. (2024年7月1日). Quantifying and Mitigating Hallucinations in Multi-modal LLMs. https://cloud.google.com/blog/topics/ai-ml/quantifying-and-mitigating-hallucinations-in-multi-modal-llms

  5. Li, S., et al. (2024年3月5日). Attention Mechanism Interpretability for Hallucination Diagnosis. arXiv. https://arxiv.org/abs/2403.02001

ライセンス:本記事のテキスト/コードは特記なき限り CC BY 4.0 です。引用の際は出典URL(本ページ)を明記してください。
利用ポリシー もご参照ください。

コメント

タイトルとURLをコピーしました