Core Concepts
大規模言語モデルを効率的かつ責任あるアダプテーションにより、データスパース性の高い弱いユーザーに対する推薦の質を向上させる。
Abstract
本研究では、大規模言語モデル(LLM)と従来の推薦システム(RS)の機能を組み合わせた新しいハイブリッドフレームワークを提案している。まず、RSでは性能が低いユーザー(弱いユーザー)を特定する。次に、これらの弱いユーザーの過去の行動履歴をコンテキスト化し、LLMに入力として与えることで、LLMによる推薦を行う。一方、強いユーザーに対してはRSによる推薦を使用する。
実験の結果、提案手法により、弱いユーザーに対する推薦の質が大幅に向上し(約12%改善)、全体的な推薦の質も向上した。さらに、LLMの高コストな適応を最小限に抑えることができた。
Stats
弱いユーザーの割合が大幅に減少した(ML1Mで約87%、ML100kで約99%減少)
LLMによる1ユーザーあたりの処理時間はGPT-3.5-turboで約8秒、Mixtral-8x7b-instructで約11秒
Quotes
"従来の推薦システムは、トレーニングサンプル全体で一様にパフォーマンス指標を最適化するため、データ駆動型の推薦システムが多様なユーザーのニーズに対応するのが難しい。"
"LLMを推薦タスクに適応させることで実用性の課題が生じるが、本研究のハイブリッドフレームワークにより、LLMとRSの機能を効果的に組み合わせることができる。"