核心概念
LinRec 是一種針對基於 Transformer 的長期序列推薦系統設計的新型線性注意力機制,它在保持傳統點積注意力學習能力的同時,顯著提高了效率。
論文資訊
Liu, L., Cai, L., Zhang, C., Zhao, X., Gao, J., Wang, W., ... & Li, Q. (2023). LinRec: Linear Attention Mechanism for Long-term Sequential Recommender Systems. In Proceedings of the 46th International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR '23), July 23–27, 2023, Taipei, Taiwan. ACM, New York, NY, USA, 11 pages. https://doi.org/10.1145/3539618.3591717
研究目標
本研究旨在解決傳統 Transformer 模型在處理長期序列推薦時,由於點積注意力機制的二次複雜度導致計算成本過高的問題。
方法
本研究提出了一種名為 LinRec 的新型 L2 標準化線性注意力機制,用於基於 Transformer 的長期序列推薦系統。LinRec 通過改變注意力機制的點積順序、對查詢 (Q) 和鍵 (K) 分別使用逐行和逐列標準化方法,以及在 Q 和 K 上添加激活層,將複雜度從 O(N²) 降低到 O(N),同時保留了注意力機制的屬性和稀疏性。
主要發現
LinRec 能夠在保持傳統點積注意力機制學習能力的同時,顯著降低計算成本。
在兩個公開基準數據集(ML-1m 和 Gowalla)上進行的實驗表明,與其他基於 Transformer 的推薦系統相比,LinRec 在顯著降低時間和記憶體效率的同時,實現了相當甚至更好的性能。
主要結論
LinRec 是一種有效且高效的長期序列推薦方法,可以輕鬆地整合到現有的基於 Transformer 的推薦系統中,為處理長期序列推薦問題提供了一種新的解決方案。
研究意義
本研究為長期序列推薦系統提供了一種新的線性注意力機制,有助於提高推薦系統的效率和可擴展性。
局限性和未來研究方向
未來可以進一步研究 LinRec 在其他推薦任務和數據集上的性能。
可以探索 LinRec 與其他效率提升技術的結合,以進一步提高推薦系統的性能。
統計資料
ML-1M 數據集包含約一百萬條用戶對電影的評分。
Gowalla 數據集包含由 SNAP 小組收集的用戶簽到數據。
在 ML-1M 和 Gowalla 數據集上,最大序列長度 N 分別設置為 200 和 100。
隱藏層大小 d 設置為 128 和 64。