核心概念
大型語言模型 (LLM) 在角色扮演任務中常出現幻覺現象,產生與角色設定不符的內容。本研究提出一個名為 RoleFact 的方法,透過調節參數化知識的影響來減輕幻覺,並發布一個包含各種角色和情境的新數據集 SGR,用於評估和研究角色扮演中的幻覺現象。
本研究論文探討大型語言模型 (LLM) 在虛構角色扮演任務中所面臨的幻覺現象挑戰。作者指出,雖然 LLM 在問答、文本分類等簡單任務上表現出色,但在角色扮演時,由於參數化世界知識的影響,經常會產生與角色設定不符或超出其知識範圍的幻覺內容。
為了解決這個問題,作者提出了一個名為 RoleFact 的方法,透過調節參數化知識的影響來減輕幻覺現象。RoleFact 使用預先校準的置信度閾值,根據參數化和非參數化知識庫對生成的回應進行原子事實驗證,並透過自我反思機制更新回應,移除未經驗證的內容。
此外,作者還發布了一個名為 SGR 的數據集,其中包含超過 2,000 個角色和 72,000 個訪談,包括 18,000 個對抗性問題。該數據集旨在促進對角色幻覺現象的系統性研究,特別是針對時間敏感型角色扮演和較不受歡迎的角色。
實驗結果顯示,RoleFact 能有效提高角色扮演回應的真實性,同時保持一定的資訊量。與其他基準方法相比,RoleFact 在對抗性訪談中的真實性提高了 18%,在時間敏感型訪談中的時間幻覺現象減少了 44%,並且在較不受歡迎的角色上也展現出更好的表現。
本研究的主要貢獻包括:
發布 SGR 數據集:提供了一個大規模、多樣化的數據集,用於研究角色扮演中的幻覺現象,特別是針對時間敏感型角色扮演和較不受歡迎的角色。
提出 RoleFact 方法:提出了一種透過調節參數化知識影響來減輕幻覺現象的方法,並透過實驗證明其有效性。