本文提出了一種名為注意力混合LoRA(AM-LoRA)的持續學習方法,用於解決大型語言模型(LLM)在持續學習新任務時遭遇的災難性遺忘問題。
具體來說,AM-LoRA包含兩個核心部分:
任務特定的LoRA矩陣序列:用於學習不同任務的知識。
注意力選擇器:負責篩選和混合不同LoRA的知識,以更好地解決當前任務。
這種設計使模型能夠利用適當的知識來解決每個任務,避免了任務與參數之間的不匹配問題。AM-LoRA還可以在持續學習過程中持續調整每個LoRA的貢獻,有助於模型動態適應新的任務場景。
此外,我們還在AM-LoRA中引入了稀疏性約束,使模型能夠精確地選擇不同任務的知識。這不僅可以減少有害信息的影響,還可以最大限度地利用有益知識來促進新任務的學習,防止來自不同任務的知識之間的異質性衝突。
實驗結果表明,與現有的最先進方法相比,我們的方法在持續學習基準測試中取得了優異的性能。
In un'altra lingua
dal contenuto originale
arxiv.org
Approfondimenti chiave tratti da
by Jialin Liu, ... alle arxiv.org 10-01-2024
https://arxiv.org/pdf/2409.19611.pdfDomande più approfondite