核心概念
本論文は、個人化された公平性を持つ推薦システムを実現するための新しいモデルAFRLを提案する。AFRLは、ユーザーの公平性要求に応じて動的に公平な埋め込みを生成することができ、非感受性属性の弁別情報を保持しつつ、属性に依存しないコラボレーション信号を取り入れることで、公平性と精度のトレードオフを改善する。
要約
本論文は、個人化された公平性を持つ推薦システムの問題に取り組んでいる。従来の手法は、公平性要求を事前に指定したハイパーパラメータとして扱っており、属性の組み合わせの爆発的な増加により膨大な学習コストを必要とするという課題があった。また、感受性属性の情報を完全に除去することで、非感受性属性の弁別情報も失われ、公平性と精度のトレードオフが最適ではないという問題もあった。
本論文では、AFRLと呼ばれる新しいモデルを提案している。AFRLは、ユーザーの公平性要求を入力として扱い、1つのモデルで動的に公平な埋め込みを生成することができる。また、属性固有の埋め込みと属性に依存しないコラボレーション埋め込みを学習することで、非感受性属性の弁別情報を保持しつつ、公平性を損なわずに精度を向上させることができる。
具体的には、AFRLは以下の2つのモジュールから構成される:
情報整列モジュール(IAlignM): 属性固有の埋め込みと属性に依存しないコラボレーション埋め込みを学習する。属性固有の埋め込みは、属性と埋め込みの間の相互情報量を最大化することで、属性情報を正確に保持する。コラボレーション埋め込みは、属性情報を排除しつつ、元の埋め込みの情報を最大限保持するように学習される。
情報集約モジュール(IAggM): IAlignMで生成された埋め込みを、ユーザーの公平性要求に応じて集約し、最終的な公平な埋め込みを生成する。
実験の結果、AFRLは従来手法と比べて、公平性と精度のトレードオフを大幅に改善できることが示された。また、属性固有の埋め込みとコラボレーション埋め込みがAFRLの性能向上に重要な役割を果たしていることが明らかになった。
統計
推薦精度の指標であるN@10とH@10は、従来手法と比べて大幅に向上した。
公平性の指標であるAUCは、従来手法と比べて0.5に近づいた。