核心概念
大型語言模型 (LLM) 在複雜推理任務中表現出色,但仍面臨知識過時、幻覺和決策不透明等問題。知識圖譜 (KG) 可以為 LLM 提供明確且可編輯的知識,以減輕這些問題。然而,現有的 KG 增強型 LLM 方法無法根據問題語義自適應地探索 KG 中的推理路徑,也無法自我修正錯誤的推理路徑,導致效率和效果瓶頸。
論文標題: Plan-on-Graph: 基於知識圖譜的大型語言模型自我修正自適應規劃
作者: Liyi Chen, Panrong Tong, Zhongming Jin, Ying Sun, Jieping Ye, Hui Xiong
研究目標: 本文旨在解決現有知識圖譜增強型大型語言模型 (LLM) 方法在推理過程中缺乏自適應性和自我修正能力的問題,提出了一種名為 Plan-on-Graph (PoG) 的新型自我修正自適應規劃範例。
方法: PoG 首先將問題分解為多個包含條件的子目標,作為規劃探索的指南。然後,它會重複以下過程,直到得出答案:自適應地探索推理路徑以訪問相關的知識圖譜數據、更新記憶以提供用於反思的歷史檢索和推理信息,以及反思是否需要自我修正推理路徑。PoG 設計了三種機制來實現自適應自我修正規劃:(1) 指導:利用問題中的條件,通過將任務分解為包含條件的子目標來更好地指導自適應探索。(2) 記憶:記憶中存儲的信息為反思提供歷史檢索和推理信息。(3) 反思:為了確定是繼續還是自我修正當前的推理路徑,設計了一種反思機制,利用 LLM 根據記憶中的信息來推理是否需要考慮其他實體進行新的探索,並決定要回溯到哪些實體進行自我修正。
主要發現: 在三個真實世界知識圖譜問答數據集(CWQ、WebQSP 和 GrailQA)上進行的實驗表明,PoG 在有效性和效率方面均優於現有方法。
主要結論: PoG 的自我修正自適應規劃範例有效地提高了 LLM 在知識圖譜問答任務中的推理能力和效率。
意義: 本研究為知識圖譜增強型 LLM 的發展提供了新的思路,並為解決複雜問答任務提供了有效的解決方案。
局限性和未來研究: 未來的工作可以探索將 PoG 擴展到其他知識密集型任務,例如文本摘要和對話系統。此外,還可以進一步研究如何提高 PoG 的可解釋性和可控性。
統計資料
在 CWQ 數據集上,PoG 的 LLM 調用次數減少了 40.8%,輸入詞元消耗量減少了 4.6%,輸出詞元產生量減少了 76.2%,整體速度提高了 4 倍以上。
在 GrailQA 數據集上,PoG 的 zero-shot 子集準確率明顯優於所有微調的 KG 增強型 LLM。