本論文は、個人化された公平性を持つ推薦システムの問題に取り組んでいる。従来の手法は、公平性要求を事前に指定したハイパーパラメータとして扱っており、属性の組み合わせの爆発的な増加により膨大な学習コストを必要とするという課題があった。また、感受性属性の情報を完全に除去することで、非感受性属性の弁別情報も失われ、公平性と精度のトレードオフが最適ではないという問題もあった。
本論文では、AFRLと呼ばれる新しいモデルを提案している。AFRLは、ユーザーの公平性要求を入力として扱い、1つのモデルで動的に公平な埋め込みを生成することができる。また、属性固有の埋め込みと属性に依存しないコラボレーション埋め込みを学習することで、非感受性属性の弁別情報を保持しつつ、公平性を損なわずに精度を向上させることができる。
具体的には、AFRLは以下の2つのモジュールから構成される:
実験の結果、AFRLは従来手法と比べて、公平性と精度のトレードオフを大幅に改善できることが示された。また、属性固有の埋め込みとコラボレーション埋め込みがAFRLの性能向上に重要な役割を果たしていることが明らかになった。
לשפה אחרת
מתוכן המקור
arxiv.org
תובנות מפתח מזוקקות מ:
by XInyu Zhu,Li... ב- arxiv.org 04-12-2024
https://arxiv.org/pdf/2404.07494.pdfשאלות מעמיקות