大規模な言語モデル(LLMs)は、連続推薦に新たな可能性をもたらすが、そのリソース要件やタスクへの適合性に関する課題がある。本研究では、Step-by-step knowLedge dIstillation fraMework for recommendation(SLIM)を提案し、LLMsの卓越した推論能力を「スリム」(つまりリソース効率的)な方法で活用することを目指している。このフレームワークでは、CoTプロンプティングを導入し、LLMsから生成された根拠を下流の小さな学生モデルに吸収させています。これにより、学生モデルは推奨タスクで段階的な推理能力を取得します。実験結果はSLIMの効果的性とコスト効率性を示しており、従来の手法よりも優れたパフォーマンスと解釈可能性を提供しています。
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문