Core Concepts
大規模言語モデルの信頼性を高めるために、知識範囲の制限と拒否メカニズムを導入する。
Abstract
本論文では、大規模言語モデル(LLM)の信頼性を高めるための新しいアプローチとして、「知識範囲の制限」と「拒否メカニズム」を提案している。
知識範囲の制限では、LLMの知識を独立した構造化されたナレッジベースで表現する。このナレッジベースは初期状態では空で、検証された知識を段階的に追加していく。
拒否メカニズムでは、LLMに質問に答えられない場合に回答を拒否するよう指示する。これにより、LLMが自身の知識範囲を認識し、間違った回答を避けることができる。
提案手法「Learn to Refuse (L2R)」では、この2つの概念を統合している。L2Rは、ナレッジベースを参照して質問に回答するが、必要に応じて回答を拒否することができる。また、回答する際には根拠と推論過程も示すことで、より説明可能性の高い出力を実現している。
さらに、自動的にナレッジベースを拡充する手法も提案している。これにより、初期状態が空のナレッジベースでも効率的に知識を蓄積できる。
実験の結果、L2Rは従来のLLMベースのQAシステムと比べて、より高い正答率を達成しつつ、信頼性の高い回答を提供できることが示された。
Stats
LeonardodaVinciがモナリザを描いた。
アメリカの首都はワシントンD.C.である。
地球上で最大の海洋は太平洋である。