本論文は、大規模言語モデル(LLM)における重大な課題である「幻覚」の問題に取り組むための新しいアプローチを提案している。
まず、人間の懐疑的思考プロセスに着目し、これをモデル化する「懐疑的モデリング(Skepticism Modeling: SM)」を提案する。SMでは、トークンに懐疑度を表す特殊トークンを付加し、事前学習と微調整の2段階で学習を行う。事前学習では、トークンの信頼性を学習し、微調整では、質問応答タスクにおいて自己の不確実性を評価し、より信頼性の高い応答を生成できるようにする。
実験の結果、SMは複数のベンチマークタスクにおいて優れた性能を示し、特に自己評価の精度が高いことが確認された。また、ドメイン外のタスクにおいても良好な一般化性を発揮することが示された。さらに、感度分析の結果から、適切な懐疑度のしきい値設定が重要であることが明らかになった。
本研究は、LLMの信頼性向上に向けた重要な一歩を示しており、人間の認知プロセスを取り入れたモデル設計の有効性を示唆している。
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Yetao Wu, Yi... at arxiv.org 09-11-2024
https://arxiv.org/pdf/2409.06601.pdfDeeper Inquiries