核心概念
LLMの言語理解能力と協調フィルタリングの高品質なユーザー/アイテム埋め込みを融合することで、寒冷シナリオと温暖シナリオの両方で優れた性能を発揮する推薦システムを提案する。
摘要
本研究では、大規模言語モデル(LLM)と協調フィルタリング推薦システム(CF-RecSys)を融合した新しい推薦システムA-LLMRecを提案している。
主な特徴は以下の通り:
-
CF-RecSysが学習した協調知識をLLMの単語空間に直接整列させることで、LLMが協調知識を理解・活用できるようにする。これにより、寒冷シナリオと温暖シナリオの両方で優れた性能を発揮する。
-
CF-RecSysやLLMの fine-tuningを必要とせず、アラインメントネットワークのみを学習するため、効率的である。また、既存のCF-RecSysと統合可能で実用的である。
-
実験の結果、A-LLMRecは寒冷/温暖シナリオ、少量学習シナリオ、寒冷ユーザーシナリオ、クロスドメインシナリオなど、様々な設定下で最高の性能を示した。
-
協調知識とテキスト知識の融合により、単にLLMをプロンプトベースで使うだけでは不十分であり、両者の知識を統合することが重要であることが示された。
統計資料
寒冷シナリオでは、A-LLMRecのHit@1が0.5714(Movies and TV)、0.4263(Video Games)、0.5605(Beauty)と最高の性能を示した。
温暖シナリオでは、A-LLMRecのHit@1が0.6880(Movies and TV)、0.5970(Video Games)、0.6414(Beauty)と最高の性能を示した。
少量学習シナリオ(128ユーザー)では、A-LLMRecのHit@1が0.2518(Movies and TV)、0.1608(Video Games)、0.3099(Beauty)と最高の性能を示した。
引述
"LLMのみでは推薦タスクに不十分であり、協調知識とテキスト知識の統合が重要である。"
"A-LLMRecは寒冷/温暖シナリオ、少量学習シナリオ、寒冷ユーザーシナリオ、クロスドメインシナリオなど、様々な設定下で最高の性能を示した。"