核心概念
大規模言語モデルは、複数段落推論タスクにおいて、必要な情報を適切に想起できないために失敗することが多く、その解釈可能性を高めるためには、モデルの推論プロセスにおける重要な記憶の想起を改善する必要がある。
要約
言語モデルの解釈に向けて:複数段落推論のケーススタディ
この論文は、Transformer ベースの大規模言語モデル (LLM) の解釈可能性、特に複数段落推論タスクにおける解釈可能性に関する研究です。
Transformer ベースの LLM は、基本的な知識検索や言語生成において優れた能力を発揮しますが、基本的な推論タスク、特に複数段落推論には苦労することがあります。
複数段落推論とは、主題が明示的に述べられていないプロンプトに答えるタスクであり、人間は容易に処理できますが、LLM はしばしば苦労します。
従来の複数段落推論の失敗を修正する試みとして、Chain-of-Thought (CoT)、Tree-of-Thought (ToT)、Graph-of-Thought (GoT) などのプロンプト手法が用いられてきましたが、これらの手法はユーザーに負担を強いることが多く、専門知識のないユーザーにとっては信頼性の低いプロンプト補完につながる可能性があります。
また、モデル編集のアプローチも提案されていますが、モデルの能力を高めるのではなく、モデルの重みに直接、遠い関係をハードコーディングしてしまう可能性があり、計算コストが高く、モデルの重みに元々埋め込まれていた他の知識に意図しない影響を与える可能性があります。
この論文では、LLM が複数段落推論に失敗する主な原因は、知識の欠如ではなく、必要な記憶を適切に想起できないことにあるという仮説に基づいています。
この仮説を検証するために、本論文では以下の貢献をしています。
Transformer ベースの LLM が推論を行う際の重要なメカニズムをリバースエンジニアリングし、複数段落推論タスクにおけるこのメカニズムの失敗を分析しました。
推論中に複数段落推論の失敗を修正するために使用できる、軽量な「記憶注入」手法を提案しました。
解釈可能性を目的とした手作業で作成したデータセットと、プログラムで生成したより大規模なデータセットを使用しました。
記憶注入に最適な層と強度を特定し、プロンプトに固有の記憶をキュレーションすることの重要性を示し、名詞、形容詞、副詞、接続詞、動詞など、品詞の異なる記憶が記憶注入中にどのように異なる動作をするかを分析しました。