Core Concepts
為了解決大型語言模型在靜態知識和幻覺方面的局限性,本文提出了 DMQR-RAG,一個通用的多重查詢改寫框架,透過多樣化的改寫策略和自適應選擇方法,提升檢索增強生成中文件檢索和最終回應的效能。
論文資訊
Zhicong Li, Jiahao Wang, Zhishu Jiang, Hangyu Mao, Zhongxia Chen, Jiazhen Du, Yuanxing Zhang, Fuzheng Zhang, Di Zhang, Yong Liu. (2024). DMQR-RAG: Diverse Multi-Query Rewriting for Retrieval-Augmented Generation. arXiv preprint arXiv:2411.13154v1.
研究目標
本研究旨在解決檢索增強生成 (RAG) 中,由於使用者查詢存在噪音和意圖偏差,導致檢索文件相關性不足的問題。
方法
提出一種通用的多重查詢改寫框架 DMQR-RAG,採用基於資訊量調整的四種改寫策略:資訊相等(一般查詢改寫和關鍵字改寫)、資訊擴展(虛擬答案改寫)和資訊縮減(核心內容提取)。
設計一種自適應改寫策略選擇方法,利用輕量級提示和少樣本學習,根據特定查詢動態選擇合適的改寫策略。
主要發現
多重查詢改寫通常優於單一查詢改寫,DMQR-RAG 在多數情況下優於現有的改寫方法,包括 RAG-Fusion。
自適應策略選擇方法能以更少的改寫次數,在文件檢索和最終回應方面取得更佳效能。
DMQR-RAG 框架適用於多種大型語言模型,包括 Llama3-8B、Qwen2-7B 和 GPT-4。
主要結論
DMQR-RAG 能有效提升檢索增強生成中文件檢索和最終回應的效能,為解決大型語言模型在靜態知識和幻覺方面的局限性提供一種有效方法。
研究意義
本研究為提升檢索增強生成的效能提供一種新的思路,並為開發更通用的查詢改寫方法奠定基礎。
局限與未來研究方向
未來將探索更精確的自適應改寫策略選擇方法。
將擴展更多樣化的改寫策略,以構建更全面的策略池。
Stats
在 FreshQA 資料集上,DMQR-RAG 的 P@5 相較最佳基準提升了 14.46%。
在 HotpotQA 資料集上,DMQR-RAG 的效能提升了約 8%。
在 AmbigNQ 資料集上,DMQR-RAG 的 EM 和 F1 分數分別比最佳基準高出 1.30% 和 3.74%。
在 FreshQA 資料集上,DMQR-RAG 的準確率比 Rewrite 高出 5.84%。
使用自適應策略選擇後,Llama3-8B 和 GPT-4 的平均改寫次數分別減少至 2.482 和 2.455 次,降幅接近 40%。
在實際產業應用中,DMQR-RAG 使 H@5 平均提升 2.0%,P@5 提升 10.0%,正確率提升 4%。