Core Concepts
大規模言語モデルを用いた推薦モデルは高い性能を示すが、推論効率が低い。本研究では、大規模言語モデルから軽量な従来の順序推薦モデルへの効果的な知識蒸留手法を提案し、従来モデルの性能を大幅に向上させることができる。
Abstract
本研究は、大規模言語モデルを用いた推薦モデルの高い性能と低い推論効率という課題に取り組んでいる。
大規模言語モデルを用いた推薦モデルは高い性能を示すが、推論時間が非常に長いという問題がある。
そこで本研究では、大規模言語モデルから軽量な従来の順序推薦モデルへの知識蒸留手法を提案している。
提案手法DLLM2Recは以下の2つの特徴を持つ:
重要度に基づく順位蒸留: 教師モデルの出力の信頼性と学生モデルとの整合性に基づいて重要度を評価し、信頼性の高い知識を選択的に蒸留する。
協調的埋め込み蒸留: 教師モデルの埋め込みと学生モデルの協調的特徴を融合することで、両者の長所を活かす。
実験の結果、DLLM2Recは従来の蒸留手法を大きく上回り、軽量な学生モデルを大規模言語モデルを上回る性能にまで高めることができた。さらに、推論時間も大幅に短縮できることが示された。
Stats
大規模言語モデルBIGRecは従来モデルDROSに比べて、ゲームデータセットで41.44%、おもちゃデータセットで81.82%の性能向上を示した。
しかし、BIGRecはDROSに劣る場合も30%以上存在した。
Quotes
"LLM-based recommenders face serious inference inefficiency issues, posing substantial challenges to their practical applications."
"To tackle this challenge, we propose employing knowledge distillation (KD) for acceleration — i.e., distilling the knowledge from a complex LLM-based recommendation model (teacher) to a lightweight conventional recommendation model (student)."