Die Studie präsentiert einen Ansatz namens "Fair Randomized Response" (FairRR), um Gruppengerechtigkeit in Klassifikationsmodellen durch Vorverarbeitung der Trainingsdaten zu erreichen.
Kernidee ist es, die Zielvariable Y durch ein Randomized-Response-Verfahren so zu modifizieren, dass Fairness-Metriken wie demografische Parität, Chancengleichheit und prädiktive Gleichheit erfüllt werden. Dazu werden die Kippwahrscheinlichkeiten der Randomized-Response-Mechanismen so optimiert, dass die Modellleistung maximiert und gleichzeitig eine vorgegebene Fairness-Schwelle eingehalten wird.
Die Autoren zeigen, dass FairRR im Vergleich zu anderen Vorverarbeitungsmethoden gute Ergebnisse in Bezug auf Modellgenauigkeit und Fairness erzielt. Zudem kann FairRR die Fairness-Schwelle direkt kontrollieren, was in der Praxis von Vorteil sein kann.
Die theoretische Herleitung basiert auf Erkenntnissen zur fairen Bayes'schen Optimalklassifikation und verbindet diese mit dem Randomized-Response-Verfahren. Damit erweitern die Autoren die bisherige Forschung von der In-Processing- auf die Vorverarbeitungsdomäne.
To Another Language
from source content
arxiv.org
Djupare frågor