本文提出了一種名為PEAR的方法,旨在提升大型語言模型在檢索增強生成(RAG)任務上的性能,同時不增加推論時的開銷。
首先,PEAR通過一個代理任務發現那些抑制RAG性能的注意力頭。這個代理任務要求模型在一個語義無關的上下文中進行內容複製,需要同時具備內容檢索和基於上下文生成的能力,這些正是RAG任務所需的關鍵能力。通過對比正常運行和干擾運行的結果,PEAR可以識別出那些抑制模型上述能力的注意力頭,稱之為"RAG抑制頭"。
接下來,PEAR通過引入可學習的重加權係數來減弱這些RAG抑制頭的影響。具體地,PEAR在模型的前向計算過程中,將這些RAG抑制頭的輸出乘以小於1的係數。這些係數是通過在代理任務上進行監督微調學習得到的,目標是最小化模型在代理任務上的損失。學習完成後,這些係數在推理過程中保持固定,不需要重複計算。
PEAR相比現有方法的主要優勢在於:1)完全不增加推理時的內存使用和時間開銷;2)與位置嵌入算法無關,可以應用於使用不同位置嵌入的各種大型語言模型。實驗結果表明,PEAR在多個RAG任務上都優於現有的增強方法,同時保持了模型的知識能力。
Sang ngôn ngữ khác
từ nội dung nguồn
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Tao Tan, Yin... lúc arxiv.org 10-01-2024
https://arxiv.org/pdf/2409.19745.pdfYêu cầu sâu hơn