Core Concepts
大規模言語モデルの潜在的知識を信頼性高く推定するための新しい手法を提案し、従来のプロンプティング手法と比較して優位性を示す。
Abstract
本研究では、大規模言語モデル(LLM)の潜在的知識を推定する新しい手法を提案している。従来のプロンプティング手法には信頼性の問題があったが、本手法はコンテキスト学習(ICL)を活用することで、より簡単で適用しやすく、かつより多くの潜在的知識を引き出すことができる。
具体的には以下の4つの貢献がある:
ICLを活用した新しい潜在知識推定器(IC-LKE)を提案し、従来手法と比較して優位性を示す。
ICLを用いた知識推定の設計選択肢を探索し、その影響を分析する。
IC-LKEと従来手法の比較を行い、IC-LKEの優位性を実証的に示す。
49種類の公開LLMを対象に、IC-LKEを用いて系統的な知識評価を行い、モデル間の知識差異を明らかにする。
評価の結果、IC-LKEは従来のプロンプティング手法よりも優れた性能を示し、モデル間でも知識の差異が大きいことが分かった。また、知識量は大規模モデルほど多いが、具体的な知識内容は必ずしも一致せず、ファインチューニングによって知識が減少することも明らかになった。
Stats
大規模言語モデルは、より少ないコンテキスト例でも関係パターンを識別できる。
未知の例に対しては頑健だが、誤った例には脆弱である。
誤った例が連続して現れると、周辺の正しい例の確率も下がる。
Quotes
"LLMsは、提示された入力例からパターンを推論し、外挿する能力を持っている。"
"より知識豊富なモデルほど、少ないコンテキスト例で安定した性能を発揮する。"
"誤った例の挿入は、モデルの事実知識の再現性を大きく損なう。"