核心概念
大規模言語モデルの生成的性質により引き起こされる幻覚問題を解決するため、人間の懐疑的思考プロセスをモデル化し、モデルの自己評価能力を高める新しいアプローチを提案する。
要約
本論文は、大規模言語モデル(LLM)における重大な課題である「幻覚」の問題に取り組むための新しいアプローチを提案している。
まず、人間の懐疑的思考プロセスに着目し、これをモデル化する「懐疑的モデリング(Skepticism Modeling: SM)」を提案する。SMでは、トークンに懐疑度を表す特殊トークンを付加し、事前学習と微調整の2段階で学習を行う。事前学習では、トークンの信頼性を学習し、微調整では、質問応答タスクにおいて自己の不確実性を評価し、より信頼性の高い応答を生成できるようにする。
実験の結果、SMは複数のベンチマークタスクにおいて優れた性能を示し、特に自己評価の精度が高いことが確認された。また、ドメイン外のタスクにおいても良好な一般化性を発揮することが示された。さらに、感度分析の結果から、適切な懐疑度のしきい値設定が重要であることが明らかになった。
本研究は、LLMの信頼性向上に向けた重要な一歩を示しており、人間の認知プロセスを取り入れたモデル設計の有効性を示唆している。
統計
大規模言語モデルは、生成的性質により幻覚を引き起こしやすい
人間の懐疑的思考プロセスは、自己の知識と判断を疑う重要な要素である
提案手法のSMは、事前学習と微調整の2段階で、トークンの懐疑度を学習し、自己評価能力を向上させる
引用
"The intense view of these manifold contradictions and imperfections in human reason has so wrought upon me, and heated my brain, that I am ready to reject all belief and reasoning, and can look upon no opinion even as more probable or likely than another [Treatise, 1.4.7.8]" - David Hume