Khái niệm cốt lõi
本文提出了一種名為 DQRM 的深度量化推薦模型框架,透過量化技術有效壓縮 DLRM 模型大小並提升其訓練效率,同時解決了 DLRM 模型過擬合的問題,最終在 Kaggle 和 Terabyte 資料集上取得了比全精度 DLRM 模型更優的效能。
Tóm tắt
書目資訊
Zhou, Y., Dong, Z., Chan, E., Kalamkar, D., Marculescu, D., & Keutzer, K. (2024). DQRM: Deep Quantized Recommendation Models. arXiv preprint arXiv:2410.20046v1.
研究目標
本研究旨在解決大型推薦模型,特別是深度學習推薦模型 (DLRM) 在訓練和推論過程中面臨的記憶體瓶頸和效率問題。
方法
- 本研究提出了一個深度量化推薦模型 (DQRM) 框架,透過量化技術將 DLRM 模型量化至超低精度 (INT4),以減少模型大小並提升效率。
- 針對傳統量化感知訓練 (QAT) 在推薦模型上的效率問題,本研究提出了兩種技術:
- 減少未使用的權重的記憶體佔用:僅複製和量化實際參與計算的嵌入向量,而非整個嵌入表。
- 週期性更新量化尺度:避免在每次迭代中遍歷整個嵌入表以計算量化尺度,從而減少計算成本。
- 為了進一步提升 DQRM 在分散式環境下的訓練效率,本研究結合了指定稀疏化和量化技術來壓縮梯度通訊。
主要發現
- 量化至 INT4 精度的 DQRM 模型在 Kaggle 和 Terabyte 資料集上均取得了與全精度 DLRM 模型相當甚至更優的測試準確率。
- 與傳統 QAT 方法相比,DQRM 的兩種改進技術顯著減少了訓練時間。
- 結合指定稀疏化和量化技術可以有效壓縮梯度通訊量,進一步提升 DQRM 的分散式訓練效率。
主要結論
DQRM 框架提供了一種有效壓縮和加速大型推薦模型的方法,使其能夠在資源受限的環境中部署,同時保持甚至提升模型效能。
意義
本研究對於提升推薦系統的效率和可擴展性具有重要意義,特別是在邊緣裝置和分散式環境中。
局限性和未來研究方向
- 未來研究可以探索更低精度的量化技術,例如 INT2 量化,以進一步壓縮模型大小。
- 需要進一步研究如何有效地將 DQRM 框架應用於其他推薦模型架構。
- 可以探索更先進的梯度壓縮技術,以進一步提升 DQRM 的分散式訓練效率。
Thống kê
DLRM 模型的嵌入表佔據了模型大小的 99% 以上。
在 Kaggle 資料集上,INT4 量化的 DQRM 模型比 FP32 精度的 DLRM 模型的測試準確率高出 0.148%。
在 Terabyte 資料集上,INT4 量化的 DQRM 模型比 FP32 精度的 DLRM 模型的測試準確率高出 0.045%。
透過週期性更新量化尺度,DQRM 的訓練時間可以顯著減少。
結合指定稀疏化和量化技術可以將梯度通訊量壓縮約 4 倍。