Core Concepts
大規模言語モデルのインコンテキスト学習における不確実性は、提供されたデモンストレーションと、モデル自体の曖昧さの両方から生じる可能性がある。本研究では、これらの不確実性を相互情報量の観点から定量化し、エントロピーベースの推定手法を提案する。
Abstract
本研究は、大規模言語モデル(LLM)のインコンテキスト学習における予測の不確実性を定量化する新しい手法を提案している。
主な内容は以下の通り:
LLMのインコンテキスト学習をベイズ型ニューラルネットワークのフレームワークで定式化し、予測の不確実性を、提供されたデモンストレーションに由来するアレアトリック不確実性(AU)と、モデル自体の曖昧さに由来するエピステミック不確実性(EU)に分解する。
AUとEUをそれぞれ、相互情報量とエントロピーの観点から定量化する新しい手法を提案する。これにより、LLMの出力に内在する不確実性の根源を特定できる。
様々なベンチマークデータセットを用いた実験を通して、提案手法が既存手法よりも優れた性能を示すことを実証する。特に、関連性の低いデモンストレーションを使う場合や、セマンティックにOODなサンプルを検出する場合に有効であることを示す。
提案手法は、LLMの出力の信頼性を評価し、適切な調整を行うのに役立つ。また、LLMの能力と限界を理解する上でも重要な知見を提供する。
Stats
LLMの予測が誤りの場合、提供されたデモンストレーションの不適切さが原因となる可能性がある。
異なるデコーディング手法(ビームサーチ、グリーディー)やパラメータ設定によって、LLMの出力が変化する可能性がある。
Quotes
"LLMのインコンテキスト学習能力は、トレーニングトークン系列xをラテント概念zにマッピングすることで得られる。"
"予測分布p(yT|x1:T)は、アレアトリック不確実性(デモンストレーションに由来)とエピステミック不確実性(モデルパラメータに由来)の両方を含んでいる。"