toplogo
Sign In

メモリインジェクション:トランスフォーマーベースの言語モデルにおける推論中のマルチホップ推論の失敗を修正する


Core Concepts
LLMはマルチホッププロンプトで情報を適切に回想できず、特定のアテンションレイヤーへのメモリインジェクションが性能向上に効果的であることを示す。
Abstract
大規模言語モデル(LLMs)はマルチホップ推論問題に苦しむが、本研究では特定のアテンションレイヤーに対するメモリインジェクションが性能向上につながることを提案。アテンションレイヤーの重要性や異なる部分の影響も検証。
Stats
LLMは多くの場合、マルチホップタスクで望ましい次トークンの確率を最大424%増加させる可能性あり。 ハンドキュレートされたデータセットでは平均的な予測精度が低下したが、2WMHデータセットでは改善された結果も見られた。 名詞、動詞、副詞、接続詞からのランダムなメモリインジェクションは通常予測精度を低下させた。
Quotes
"Attention heads play an important role in this factual recall process." "In future work, we will curate relevant memories from various parts of speech for each prompt."

Key Insights Distilled From

by Mans... at arxiv.org 03-01-2024

https://arxiv.org/pdf/2309.05605.pdf
Memory Injections

Deeper Inquiries

どうしてランダムなメモリインジェクションは通常予測精度を低下させる傾向があったのか?

ランダムなメモリインジェクションが通常予測精度を低下させる理由は、注入される情報が関連性のないトークンで構成されているためです。言語モデルにとって重要な情報やコンテキストを持たないランダムな単語(例えば、「りんご」)を注入することで、モデルの推論プロセスが歪み、正しい次のトークンを予測する能力が低下します。このように、適切で関連性のある情報や記憶を注入しない場合、言語モデルのパフォーマンスに悪影響を与える可能性があります。

他の言語モデルでも同様の振る舞いが見られるかどうか

他の言語モデルでも同様の振る舞いが見られるかどうか? 他の言語モデルでも同様の振る舞いが見られる可能性があります。本研究ではGPT-2(SmallおよびLarge)に焦点を当てましたが、Transformerアーキテクチャや類似した教師なし学習目的で訓練された他の言語モデルも同様に特定部分から不適切または無関係な情報を受け取った際にパフォーマンス劣化する可能性が考えられます。そのため、今後は異なるタイプやサイズの言語モデルでも同じ実験手法やアプローチを用いて結果を比較・評価することで一般化可能性を確立する必要があります。

外部知識ストアと連携してLLMsの事実能力を強化する方法について考えられるか

外部知識ストアと連携してLLMs の事実能力強化方法 LLMs の事実上限知識保持能力およびパフォーマンス向上策として外部知識ストア(例:知識グラフ)と統合する方法は有望です。これにより、模範的また信頼性高く整理された外部知識源から追加情報やコンテキスト引き出すことでLLMs の推論能力向上及び質問応答タスク等多岐にわたって利益得られます。
0