核心概念
LLM-KTは、LLMが生成したユーザー嗜好の記述を中間層で再構築させることで、様々な協調フィルタリングモデルの精度向上を実現する知識転移フレームワークである。
要約
LLM-KT: 大規模言語モデルから協調フィルタリングへの知識転移のための汎用フレームワーク
書誌情報
Nikita Severin, Aleksei Ziablitsev, Yulia Savelyeva, Valeriy Tashchilin, Ivan Bulychev, Mikhail Yushkov, Artem Kushneruk, Amaliya Zaryvnykh, Dmitrii Kiselev, Andrey Savchenko, Ilya Makarov. (2024). LLM-KT: A Versatile Framework for Knowledge Transfer from Large Language Models to Collaborative Filtering. arXiv preprint arXiv:2411.00556v1.
研究目的
本研究は、大規模言語モデル (LLM) から協調フィルタリング (CF) モデルへの知識転移を効率的に行うための汎用フレームワークであるLLM-KTを提案し、その有効性を検証することを目的とする。
方法
LLM-KTは、まずLLMを用いて各ユーザーの嗜好を表す短いテキストプロファイルを作成する。次に、事前学習済みのテキスト埋め込みモデルを用いて、これらのプロファイルを密な埋め込みベクトルに変換する。そして、CFモデルの特定の中間層において、ユーザーのインタラクションデータからこれらのプロファイルを再構築する補助的な事前学習タスクを追加学習させる。これにより、CFモデルはLLMが生成した知識を活用して、より正確な推薦を行うことができるようになる。
主な結果
MovieLensおよびAmazonデータセットを用いた実験の結果、LLM-KTはベースラインとなるCFモデルの性能を大幅に向上させることが示された。具体的には、NDCG@10で最大21%の改善が見られた。また、LLM-KTは、既存の知識転移手法であるKARと同等の性能を達成しながら、入力特徴量をサポートしないCFモデルにも適用可能であることが示された。
結論
LLM-KTは、LLMの知識を活用してCFモデルの性能を向上させるための効果的なフレームワークである。LLM-KTは、様々なCFモデルに適用可能であり、推薦システムの性能向上に大きく貢献することが期待される。
意義
本研究は、LLMの知識を推薦システムに活用するための新たな道を切り開くものである。LLM-KTは、既存のCFモデルのアーキテクチャを変更することなく、容易に導入することができるため、幅広い実用化が期待される。
限界と今後の研究
本研究では、ユーザーのプロファイルを生成するために、単一のLLMとプロンプトエンジニアリング手法を用いた。しかし、LLMやプロンプトエンジニアリング手法の違いが、推薦性能に与える影響については、今後の検討課題として残されている。また、本研究では、一般的な推薦タスクとコンテキストアウェアな推薦タスクに焦点を当てた。しかし、LLM-KTは、他の推薦タスクにも適用可能であると考えられるため、今後の研究で検討する必要がある。