本研究では、大規模言語モデル(LLM)を推奨システムのバックボーンとして活用する際の課題に取り組む。LLMは自然言語推論に優れているが、ユーザーとアイテムの複雑な相互作用をモデル化することができず、推奨タスクの性能が従来の手法に劣る。
本研究では、LLMに推奨に特化した知識を注入することで、この問題を解決する。具体的には、マスクアイテムモデリング(MIM)やベイズ個人化ランキング(BPR)といった従来の推奨システムで用いられる手法を自然言語タスクに変換し、LLMの学習に活用する。これにより、アイテムの相関関係やユーザーの嗜好を表現する補助タスクデータを生成し、LLMにこれらの知識を注入する。
さらに、ユーザーの購買履歴を詳細に表現した推奨タスクデータも併せて活用する。これらの推奨タスクデータと補助タスクデータを組み合わせて、LLMをマルチタスク学習させることで、推奨に特化した知識を効果的に獲得する。
実験の結果、提案手法は、Amazon Toys & Games、Beauty、Sports & Outdoorsの各ドメインにおいて、リトリーバル、ランキング、レーティング予測の各タスクで、従来手法やLLMベースの手法を大幅に上回る性能を示した。特にリトリーバルタスクでは、現状最高水準の手法を大きく凌駕する結果が得られた。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問