核心概念
大規模言語モデル(LLM)は自然言語処理能力に優れているものの、訓練データの現実とは無関係な内容を生成してしまう「ホールシネーション」の問題を抱えている。本研究では、LLMの階層的な事実知識表現を活用し、推論時の予測分布を操作することで事実性を向上させる手法を提案する。具体的には、最終層の予測分布を外挿的に更に成熟させるとともに、層ごとのエントロピーに基づいて適切な対比層を選択することで、最終層の依存性を排除している。
要約
本研究は、大規模言語モデル(LLM)の事実性向上に取り組んでいる。LLMは自然言語処理能力に優れているものの、訓練データと無関係な内容を生成してしまう「ホールシネーション」の問題を抱えている。
提案手法の特徴は以下の通り:
- 最終層の予測分布を外挿的に更に成熟させる
- 層ごとのエントロピーに基づいて適切な対比層を選択する
- 最終層への依存性を排除する
これにより、最終層の不確実性を抑えつつ、適切な対比層を選択することで、事実性の高い出力を生成できる。
実験の結果、提案手法は複数のファクチュアリティ関連タスクにおいて、従来手法を大幅に上回るパフォーマンスを示した。さらに、推論時の連鎖的な推論を必要とするタスクでも高い性能を発揮した。
統計
最終層の予測分布は不確実で未熟な場合がある
下位層の予測分布は事実性が低い傾向がある
下位層の選択は最終層に依存しがちで望ましくない
引用
「最終層は最も信頼できるとは限らない」
「下位層の選択プロセスを最終層から切り離すことが重要」