核心概念
大規模言語モデル(LLM)の信頼性を高めるために、生成された回答の正確さをテキスト含意に基づいて評価し、誤検出率を制御する選択的生成アルゴリズムを提案する。
本論文は、大規模言語モデル(LLM)の信頼性を高めるために、生成された回答の正確さをテキスト含意に基づいて評価し、誤検出率を制御する選択的生成アルゴリズムを提案しています。
LLMは人間レベルの言語生成能力を持つ一方で、事実と異なる情報を生成する「幻覚」の問題を抱えています。この問題は、LLMを知識検索のソースとして使用する場合に特に深刻です。従来の幻覚対策としては、人間のフィードバックを用いたファインチューニングが主流でしたが、コストと時間がかかるという課題がありました。