Jaehee Kim, Yukyung Lee, & Pilsung Kang. (2024). A Gradient Accumulation Method for Dense Retriever under Memory Constraint. Thirty-eighth Conference on Neural Information Processing Systems.
本研究旨在解決密集檢索器訓練過程中,因 InfoNCE 損失函數需要大量負樣本而導致的高記憶體需求問題,並提出一個在低資源環境下,也能有效訓練密集檢索器的方法。
本研究提出了「對比累積」(CONTACCUM)方法,該方法利用雙記憶庫結構來緩存過去生成的查詢和文章表示,並將其用於當前批次的訓練中,以增加負樣本的數量。具體來說,CONTACCUM 使用兩個先進先出(FIFO)隊列作為記憶庫,分別存儲查詢和文章表示。在每個訓練步驟中,模型會從記憶庫中提取表示,並將其與當前批次的表示組合,構建一個更大的相似度矩陣,用於計算 InfoNCE 損失。
CONTACCUM 是一種有效且高效的密集檢索器訓練方法,尤其適用於記憶體受限的環境。透過利用雙記憶庫和梯度累積技術,CONTACCUM 能夠在不犧牲效能的情況下,顯著降低記憶體需求,並提高訓練穩定性。
本研究對於推動密集檢索器在資源受限環境下的應用具有重要意義,例如個人電腦、行動設備等。此外,CONTACCUM 的雙記憶庫結構和梯度範數平衡分析,為其他基於對比學習的模型訓練提供了新的思路。
In eine andere Sprache
aus dem Quellinhalt
arxiv.org
Wichtige Erkenntnisse aus
by Jaehee Kim, ... um arxiv.org 11-22-2024
https://arxiv.org/pdf/2406.12356.pdfTiefere Fragen