大規模言語モデル(LLMs)は幻覚を生じやすく、その危険性がある。本研究では、トークンレベルの不確実性定量化に基づいた新しい事実チェックと幻覚検出手法を提案している。この手法は、ニューラルネットワークの出力から情報を抽出し、信頼できない予測を検出することができる。さらに、特定の主張値の不確かさだけを測定するClaim Conditioned Probability(CCP)メソッドも紹介されている。バイオグラフィ生成タスクでの実験では、CCPが6つの異なるLLMおよび3つの言語において強力な改善を示した。
إلى لغة أخرى
من محتوى المصدر
arxiv.org
الرؤى الأساسية المستخلصة من
by Ekaterina Fa... في arxiv.org 03-08-2024
https://arxiv.org/pdf/2403.04696.pdfاستفسارات أعمق