核心概念
大規模な言語モデル(LLMs)を使用した連続推薦には多くの挑戦があるが、SLIMフレームワークはリソース効率的に優れた推論能力を提供する。
要約
大規模な言語モデル(LLMs)は、連続推薦に新たな可能性をもたらすが、そのリソース要件やタスクへの適合性に関する課題がある。本研究では、Step-by-step knowLedge dIstillation fraMework for recommendation(SLIM)を提案し、LLMsの卓越した推論能力を「スリム」(つまりリソース効率的)な方法で活用することを目指している。このフレームワークでは、CoTプロンプティングを導入し、LLMsから生成された根拠を下流の小さな学生モデルに吸収させています。これにより、学生モデルは推奨タスクで段階的な推理能力を取得します。実験結果はSLIMの効果的性とコスト効率性を示しており、従来の手法よりも優れたパフォーマンスと解釈可能性を提供しています。
統計
大規模な言語モデル(LLMs):175Bサイズ
学生モデル:7Bサイズ
APIコール時間:5.54秒/1回
モデルサイズ:1 A100 GPU
APIコスト:$0.0015/1Kトークン(入力)、$0.002/1Kトークン(出力)
引用
"大規模な言語モデル(LLMs)は、連続推薦に新たな可能性をもたらすが、そのリソース要件やタスクへの適合性に関する課題がある。"
"SLIMフレームワークはリソース効率的に優れた推論能力を提供する。"