Core Concepts
大規模言語モデルが幻覚を生じる原因である不真実なコンテキストからモデルを保護し、真実な情報を選択する方法であるTACSの効果的な性能を示す。
Abstract
大規模言語モデル(LLMs)は印象的なテキスト生成能力を示すが、不真実なコンテキストによって簡単に惑わされ、幻覚を生じる可能性がある。
TACSは真実検出を行い、高い真実性の位置を選択し、低い真実性の位置を破棄することで、モデルが不真実情報に惑わされるのを防ぎ、生成された回答の品質向上に寄与する。
実験結果は、TACSが情報フィルタリングに効果的であり、LLMsが不正確な予測や幻覚を生じるリスクを軽減することを示している。
Introduction
LLMs have shown impressive text generation capabilities but are prone to being misled by untruthful contexts, leading to hallucinations.
TACS performs truth detection, selects high-truthfulness positions, and discards low-truthfulness positions to prevent the model from being misled.
Related Work
Previous works have analyzed sources of hallucinations in LLMs and proposed methods to alleviate them during training and inference phases.
Method
TACS performs truth detection on contextual information and constructs attention masks based on truthfulness to guide the model's response generation.
The Disturbance Adaptation Rate is introduced as a metric to evaluate the model's ability to accept truthful information and resist untruthful information.
Experiments
Experimental results demonstrate that TACS significantly improves the overall quality of LLMs' responses by filtering out untruthful information in context.
TACS shows effectiveness in preventing LLMs from being misled by untruthful contexts, showcasing potential for knowledge-augmented models.
Stats
大きさの知識からパラメータ化された知識まで広範囲な知識がLLMsのパラメータにエンコードされています。
トークンごとの最高確率トークンは次のトークン予測に影響します。
外部知識の導入により、LLMsは正しい回答の割合が増加します。
Quotes
"Judging the truthfulness of the input context is imperative."
"Experimental results show that TACS can effectively filter information in context."