Core Concepts
大規模言語モデルの知識を継続的に更新・修正する効率的な手法を提案する。検索強化型の継続的プロンプト学習により、モデルの性能劣化や推論効率の低下を抑えつつ、知識の信頼性、一般性、局所性を維持する。
Abstract
本研究は、大規模言語モデル(LLM)の知識を継続的に更新・修正する効率的な手法を提案している。
主な特徴は以下の通り:
知識表現をプロンプトに変換し、LLMの入力に付加することで、効率的に知識を反映させる。プロンプトエンコーダーを信頼性、一般性、局所性の観点から学習する。
知識センチネルを導入し、クエリに応じて動的に類似度閾値を計算することで、関連知識の適切な検索を実現する。
提案手法RECIPE(RetriEval-augmented ContInuous Prompt lEarning)は、既存の知識編集手法と比較して、編集性能、ロバスト性、推論速度の面で優れた結果を示す。
具体的には、ZSRE、CounterFact、RIPEデータセットを用いて、LLaMA-2、GPT-J、GPT2-XLモデルに対して1、10、100、1,000、10,000回の編集を行い、評価を行っている。結果、RECIPEは編集性能と全体性能の維持、そして高速な編集・推論を実現している。
Stats
大規模言語モデルの知識を継続的に更新・修正する際の課題は、パラメータの蓄積による性能劣化や推論効率の低下である。
提案手法RECIPEは、検索強化型の継続的プロンプト学習により、これらの課題を解決している。
Quotes
"大規模言語モデル(LLMs)は、一度学習されると、その中に蓄積された知識が静的なものとなる。これにより、時間の経過とともに出力が時代遅れや誤りを含むようになる可能性がある。"
"継続的な知識編集は、LLMsが最新の知識を反映し続けるために不可欠である。しかし、従来の手法では、パラメータの蓄積による性能劣化や推論効率の低下といった課題に直面する。"