Kernekoncepter
本文提出了一種名為圖形檢索增強生成 (GRAG) 的新方法,旨在解決傳統 RAG 方法在處理基於圖的上下文方面的局限性,通過檢索與查詢相關的文本子圖來增強大型語言模型 (LLM) 的生成能力。
論文資訊
標題: GRAG: 圖形檢索增強生成
作者: Yuntong Hu, Zhihan Lei, Zheng Zhang, Bo Pan, Chen Ling, Liang Zhao
單位: 美國亞特蘭大埃默里大學計算機科學系
發表日期: 2024 年 10 月 21 日
研究目標
本研究旨在解決傳統檢索增強生成 (RAG) 方法在處理基於圖的上下文方面的局限性,提出了一種名為圖形檢索增強生成 (GRAG) 的新方法,以增強大型語言模型 (LLM) 在圖形數據上的推理能力。
方法
GRAG 通過以下步驟實現其目標:
文本子圖檢索: 提出了一種分而治之的策略,利用 K 跳躍自我圖和軟剪枝來近似最佳文本子圖,從而有效地檢索與查詢相關的文本子圖。
文本圖增強生成: 為 LLM 提供了兩種互補的文本圖視圖:圖形視圖和文本視圖。圖形視圖使用圖神經網絡 (GNN) 對圖形的拓撲信息進行編碼,而文本視圖將檢索到的文本子圖轉換為分層文本描述。
主要發現
GRAG 在需要對文本圖進行詳細的多跳推理的情況下,顯著優於 LLM 基線和基於 RAG 的 LLM。
使用 GRAG 增強的凍結 LLM 可以以降低的訓練成本優於微調的 LLM。
軟剪枝對於提高圖形標記的質量和避免不相關實體的負面影響至關重要。
節點和邊緣文本屬性對於有效生成至關重要。
結論
GRAG 為增強 LLM 在圖形數據上的推理能力提供了一種有效且高效的方法。它解決了傳統 RAG 方法的局限性,並為 LLM 在各種圖形相關任務中的應用開闢了新的可能性。
意義
本研究對於推進基於圖的自然語言處理任務具有重要意義,例如問答、對話系統和文本摘要。
局限性和未來研究
未來的工作可以探索更複雜的圖形編碼器,以更好地捕捉文本圖中的複雜關係。
研究 GRAG 在其他圖形相關任務上的應用將是有價值的。
Statistik
GRAG 的輸出在圖表中引用了 79% 的有效實體,而 MiniLM-L12-v2 和 G-Retriever 分別引用了 62% 和 71% 的有效實體。
在沒有檢索技術的情況下,較大的 LLM 在這些任務中未能產生優異的性能。例如,llama2-7b-chat-hf 模型在 ExplaGraphs 數據集的常識推理任務中達到了 33.94% 的準確率,略微優於 llama2-13b-chat-hf 模型,後者記錄的準確率為 33.57%。
在 WebQSP 數據集上觀察到類似的趨勢,其中 13B 模型的 Hit@1 分數為 0.4112,略低於 7B 模型實現的 0.4148。