toplogo
Sign In

推薦システムにおける堅牢な過酷なネガティブサンプリングのための強化ベイズ個人化ランキング


Core Concepts
過酷なネガティブサンプリングを使用する際に発生する偽のネガティブの問題を軽減するために、オリジナルのベイズ個人化ランキング(BPR)を改良した新しい損失関数Hard-BPRを提案する。
Abstract
本論文は、推薦システムにおける過酷なネガティブサンプリングの課題である偽のネガティブの問題に取り組んでいる。 まず、過酷なネガティブサンプリングを使用する際に発生する偽のネガティブの問題について説明している。偽のネガティブとは、ユーザーが興味があるにもかかわらず、未だ相互作用していない商品のことを指す。過酷なネガティブサンプリングを行うと、偽のネガティブが選択される確率が高くなり、モデル学習に悪影響を及ぼす可能性がある。 そこで本論文では、オリジナルのベイズ個人化ランキング(BPR)損失関数を改良した新しい損失関数Hard-BPRを提案している。Hard-BPRは、偽のネガティブの影響を軽減するために、個別の嗜好確率の推定方法を変更したものである。具体的には、BPRで使用されるロジスティックシグモイド関数を、3つの係数を追加した新しい関数に置き換えている。 提案手法の有効性を検証するため、3つの実データセットを用いて実験を行っている。その結果、提案手法であるHard-BPRが、既存手法と比べて推薦精度が高く、偽のネガティブを識別する能力も優れていることが示された。さらに、Hard-BPRの3つの係数に関する分析も行われ、2つの係数のみ調整すれば良いことが明らかになった。
Stats
偽のネガティブを含む項目の得点と真のネガティブを含む項目の得点の分布の差は、LightGCNモデルでは1.50273、MFモデルでは1.43378であった。
Quotes
なし

Deeper Inquiries

過酷なネガティブサンプリングの課題を解決するための他の手法はないか。

過酷なネガティブサンプリングにおける偽のネガティブの問題を解決するための他の手法として、損失関数の変更や重み付けの調整などが考えられます。例えば、ネガティブサンプリングの際に偽のネガティブと真のネガティブの重み付けを異なる方法で行うことで、モデルが偽のネガティブに過度に影響されることを防ぐことができます。また、異なる損失関数を導入することで、偽のネガティブと真のネガティブの得点分布の差を最小化するような最適化手法を構築することも有効です。
0