Core Concepts
LLMはマルチホッププロンプトで情報を適切に回想できず、特定のアテンションレイヤーへのメモリインジェクションが性能向上に効果的であることを示す。
Abstract
大規模言語モデル(LLMs)はマルチホップ推論問題に苦しむが、本研究では特定のアテンションレイヤーに対するメモリインジェクションが性能向上につながることを提案。アテンションレイヤーの重要性や異なる部分の影響も検証。
Stats
LLMは多くの場合、マルチホップタスクで望ましい次トークンの確率を最大424%増加させる可能性あり。
ハンドキュレートされたデータセットでは平均的な予測精度が低下したが、2WMHデータセットでは改善された結果も見られた。
名詞、動詞、副詞、接続詞からのランダムなメモリインジェクションは通常予測精度を低下させた。
Quotes
"Attention heads play an important role in this factual recall process."
"In future work, we will curate relevant memories from various parts of speech for each prompt."