DREは、推奨モデルの内部表現にアクセスせずに、大規模言語モデルのデータレベルでの整合化を通じて、ユーザー中心の正確な推奨説明を生成する。
推奨モデルの学習時に、頻繁にアクセスされる「ホット」な埋め込みの中でも、急速に収束し変化が小さくなった「陳腐化」した埋め込みを動的に特定し、それらの更新をスキップすることで、学習時間を大幅に短縮できる。
マトリクス因子分解の訓練プロセスを高速化するために、特徴行列の細かな構造的スパース性を利用して重要でない潜在因子を動的にプルーニングする。
大規模言語モデルは自然言語推論に優れているが、ユーザーとアイテムの複雑な相互作用をモデル化することができず、推奨タスクの性能が従来の手法に劣る。本研究では、推奨に特化した知識を大規模言語モデルに注入することで、この問題を解決する。
ユーザー行動が複雑化するビジネスプラットフォームにおいて、オンラインの推奨は、プラットフォームの関心事に密接に関連する中心的な変換に触れることに焦点を当てている。これらの中心的な変換は通常連続的なターゲットであり、前の離散的な変換アクションによって予測を高めることができる。したがって、マルチタスク学習(MTL)がこれらのハイブリッドターゲットを学習するためのパラダイムとして採用できる。しかし、既存の研究は主に離散的な変換アクション間の順序依存性を調査することに重点を置いており、離散的な変換と最終的な連続的な変換の間の依存性の複雑さを無視している。さらに、より強いタスク依存性を持つハイブリッドタスクを同時に最適化すると、コアの回帰タスクが他のタスクに大きな影響を与える問題に悩まされる。本論文では、ハイブリッドターゲットを持つMTL問題を初めて研究し、タスク依存性を探索し、最適化を強化するモデルであるHybrid Targets Learning Network (HTLNet)を提案する。
既存の推定子は、単純なモデルに依存しており、効果が制限されている可能性がある。