HalluVaultは、以下の4つのモジュールから構成されている:
事実知識抽出: 大規模な知識ベースから、エンティティと関係の情報を抽出し、事実三つ組として表現する。
論理推論: 5つのルールに基づいて、抽出した事実知識を拡張し、新しい事実知識を自動生成する。
ベンチマーク構築: 生成した事実知識を基に、LLMに提示する質問と正解を自動的に生成する。質問は事実に基づいた論理的な整合性を持つ。
応答評価: LLMの出力と正解の論理的・意味的な整合性を評価し、事実矛盾ハルシネーションを検出する。
HalluVaultは、6つのLLMと9つのドメインにわたって適用され、24.7%から59.8%の範囲でハルシネーションを検出した。特に、時間概念の扱い、分布外の知識の処理、論理推論能力の欠如が課題として明らかになった。また、モデル編集手法を用いて一部の事実矛盾ハルシネーションを修正することができた。これらの結果は、LLMのハルシネーション検出と修正に向けた継続的な取り組みの重要性を示唆している。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問