本研究では、推薦システムにおける公平性の問題に取り組む。従来の手法は、全ての利用者の機密属性情報を必要としていたが、プライバシーの観点から利用者が機密属性の共有を拒否する可能性がある。そこで本研究では、限定的な機密属性情報しか利用できない状況でも公平な推薦を実現する手法「分布頑健公平最適化(DRFO)」を提案する。
DRFOでは、欠損している機密属性の推定誤差を考慮するため、推定された機密属性分布の周辺の分布集合を定義し、その集合内での最悪ケースの公平性を最小化する。さらに、一部の利用者が機密属性の推定を拒否する場合にも対応できるよう、より広範な分布集合を定義する。
理論的・実験的な検証により、DRFOが限定的な機密属性情報でも公平な推薦を実現できることを示した。
In un'altra lingua
dal contenuto originale
arxiv.org
Approfondimenti chiave tratti da
by Tianhao Shi,... alle arxiv.org 05-03-2024
https://arxiv.org/pdf/2405.01063.pdfDomande più approfondite