Die Studie präsentiert einen Ansatz namens "Fair Randomized Response" (FairRR), um Gruppengerechtigkeit in Klassifikationsmodellen durch Vorverarbeitung der Trainingsdaten zu erreichen.
Kernidee ist es, die Zielvariable Y durch ein Randomized-Response-Verfahren so zu modifizieren, dass Fairness-Metriken wie demografische Parität, Chancengleichheit und prädiktive Gleichheit erfüllt werden. Dazu werden die Kippwahrscheinlichkeiten der Randomized-Response-Mechanismen so optimiert, dass die Modellleistung maximiert und gleichzeitig eine vorgegebene Fairness-Schwelle eingehalten wird.
Die Autoren zeigen, dass FairRR im Vergleich zu anderen Vorverarbeitungsmethoden gute Ergebnisse in Bezug auf Modellgenauigkeit und Fairness erzielt. Zudem kann FairRR die Fairness-Schwelle direkt kontrollieren, was in der Praxis von Vorteil sein kann.
Die theoretische Herleitung basiert auf Erkenntnissen zur fairen Bayes'schen Optimalklassifikation und verbindet diese mit dem Randomized-Response-Verfahren. Damit erweitern die Autoren die bisherige Forschung von der In-Processing- auf die Vorverarbeitungsdomäne.
Til et andet sprog
fra kildeindhold
arxiv.org
Vigtigste indsigter udtrukket fra
by Xianli Zeng,... kl. arxiv.org 03-13-2024
https://arxiv.org/pdf/2403.07780.pdfDybere Forespørgsler