المفاهيم الأساسية
Das Modell AFRL (Adaptive Fair Representation Learning) ermöglicht faire Empfehlungen, die an die individuellen Fairness-Anforderungen der Nutzer angepasst sind. AFRL lernt attributspezifische Einbettungen und ein voreingenommenes kollaboratives Embedding, um eine optimale Balance zwischen Fairness und Genauigkeit zu erreichen.
الملخص
Der Artikel präsentiert ein neues Modell namens AFRL (Adaptive Fair Representation Learning) für faire Empfehlungen mit personalisierten Fairness-Anforderungen.
AFRL besteht aus zwei Modulen:
- Information Alignment Module (IAlignM):
- Lernt attributspezifische Einbettungen {z_u,i}, die die Informationen der jeweiligen Attribute genau erfassen, ohne andere Attribute zu beeinflussen.
- Lernt ein voreingenommenes kollaboratives Embedding z_u,0, das unabhängig von Nutzerattributen ist.
- Information Aggregation Module (IAggM):
- Aggregiert die attributspezifischen Einbettungen und das voreingenommene kollaborative Embedding basierend auf den individuellen Fairness-Anforderungen s_u des Nutzers, um die endgültige faire Einbettung u* zu erzeugen.
Im Gegensatz zu bisherigen Ansätzen, die sensitive Attribute komplett aus den Einbettungen entfernen, behält AFRL die diskriminierenden Informationen der nicht-sensitiven Attribute, um eine bessere Balance zwischen Fairness und Genauigkeit zu erreichen.
Die theoretische Analyse und umfangreichen Experimente auf realen Datensätzen zeigen die Überlegenheit von AFRL gegenüber dem Stand der Technik.
الإحصائيات
Die Empfehlungsgenauigkeit (N@10 und H@10) von AFRL ist höher als die der Baseline-Modelle.
Die Fairness-Metrik (durchschnittliche AUC über alle Attribute) von AFRL ist näher an 0,5 als die der Baseline-Modelle.
اقتباسات
"AFRL behandelt Fairness-Anforderungen als Eingaben und kann attributspezifische Einbettungen für jedes Attribut aus der unfairen Nutzereinbettung lernen, was AFRL mit Anpassungsfähigkeit während der Inferenzphase ausstattet, um die nicht-sensitiven Attribute unter Anleitung der einzigartigen Fairness-Anforderung des Nutzers zu bestimmen."
"Im Gegensatz zu bestehenden Ansätzen, bei denen das Entfernen sensibler Attribute zum Verlust diskriminierender Informationen von nicht-sensitiven Attributen führt, übernimmt IAlignM eine neuartige Strategie. Es lernt attributspezifische Einbettungen aus den ursprünglichen Nutzereinbettungen für jedes Attribut, um die genaue Ausrichtung der Informationen zwischen den Einbettungen und ihren jeweiligen Attributen sicherzustellen."