toplogo
Sign In

自己教育型コントラスティブラーニングによる暗黙の協調フィルタリング


Core Concepts
提案されたシンプルな自己教育型コントラスティブラーニングフレームワークは、正確なユーザー-アイテム特徴表現を学習するために、偽陽性と偽陰性の例を改善します。
Abstract
ABSTRACT コントラスティブ学習ベースの推薦アルゴリズムが自己教育型推薦の分野を大きく前進させている。 偽陽性と偽陰性の例が正確な好みの学習を妨げる。 自己教育型コントラスティブ学習方法は、BPRを代表とするランキング予測タスクで効果的です。 INTRODUCTION 推薦システムはeコマース、ソーシャルメディア、ニュース読み取りなど多くの領域で重要です。 現在、多くの最先端推薦モデルは自己教育学習(SSL)技術を活用しています。 METHODOLOGY Positive Feature Augmentation ポジティブインスタンス特徴拡張により、偽陽性例から生じる誤った自己教育信号を軽減します。 Negative Label Augmentation ネガティブラベル拡張では、難しい負例がサンプリングされます。 Optimization Criterion 特徴拡張とラベル拡張後、最適化基準は「最も代表的なポジティブ例(興味センター)への好みが困難な負例(ユーザーが好まないアイテム)への好みよりも高い」という修正された自己教育信号に対応します。 EXPERIMENT 5つの公開データセットで実験評価が行われました。 提案手法はトップkランキング精度で他手法を上回りました。
Stats
提案された手法はトップkランキング精度で他手法を上回っています。
Quotes

Deeper Inquiries

他の分野でもこのような自己教育型コントラスティブ学習手法は有効ですか?

このような自己教育型コントラスティブ学習手法は、他の分野でも非常に有効であると言えます。例えば、画像処理や音声認識などの機械学習タスクにおいても、同様のアプローチが成功を収めています。特に、対象データセットが大規模でラベル付けが困難な場合や、正確なラベル情報を取得することが難しい場合には、自己教育型アルゴリズムは優れた結果をもたらす可能性があります。
0
visual_icon
generate_icon
translate_icon
scholar_search_icon
star