本研究では、マルチモーダル推薦における公平性の課題に取り組む。従来の公平な表現学習手法は、ユーザーの相互作用データからのみ機密情報の漏洩を想定しており、マルチモーダルデータによって引き起こされる因果関係を明示的にモデル化していないため、マルチモーダルシナリオでの適用が限られていた。
本研究では、因果関係に着目した新しい公平なマルチモーダル推薦手法(FMMRec)を提案する。具体的には、以下の2つのステップから成る:
公平性指向のモーダル分離: 機密情報を最大限に含む偏向モーダル埋め込みと、機密情報を最小限に含む濾過モーダル埋め込みを生成する。これにより、機密属性の因果的影響を排除しつつ、非機密情報を保持する。
関係認識型公平学習: 生成した偏向/濾過モーダル埋め込みを用いて、ユーザー間の不公平/公平な関係を抽出し、ユーザー表現の公平性と表現力を高める。
提案手法は、2つのパブリックデータセットでの実験により、ベースラインと比較して高い公平性と推薦精度を示した。
На другой язык
из исходного контента
arxiv.org
Дополнительные вопросы