核心概念
Multi-modal Knowledge Distillation with Prompt-Tuning enhances recommendation systems by bridging the semantic gap and reducing noise in multi-modal data.
摘要
マルチメディアオンラインプラットフォームは、マルチモーダルなコンテンツを取り入れたパーソナル推薦システムに大きな恩恵を受けています。しかし、マルチモーダルレコメンダーの2つの主要な課題は未解決のままです。これらの問題に対処するために、PromptMMが提案されました。この手法は、知識蒸留を通じてレコメンダーを簡素化し、適応的な品質蒸留を可能にします。具体的には、PromptMMはモデル圧縮を行い、学生を追加の特徴量削減パラメータから解放します。さらに、不正確さの影響を調整するために、分離されたマルチモーダルリスト別蒸留が開発されました。
统计
マイクロビデオデータセット:視覚的特徴128次元、音響的特徴128次元。
電子製品データセット:視覚的特徴4096次元、テキスト特徴1024次元。
Netflixデータセット:映画ポスターから抽出された画像特徴とBERTでエンコードされたテキスト特徴。
引用
"PromptMM achieves competitive results with a lightweight architecture and tailored transferred knowledge."
"Modality-aware list-wise distillation can finely extract quality modality-aware collaborative relationships."
"PromptMM consistently outperforms both general collaborative filtering models and state-of-the-art multi-modal recommendation methods."