Die Studie präsentiert einen Ansatz namens "Fair Randomized Response" (FairRR), um Gruppengerechtigkeit in Klassifikationsmodellen durch Vorverarbeitung der Trainingsdaten zu erreichen.
Kernidee ist es, die Zielvariable Y durch ein Randomized-Response-Verfahren so zu modifizieren, dass Fairness-Metriken wie demografische Parität, Chancengleichheit und prädiktive Gleichheit erfüllt werden. Dazu werden die Kippwahrscheinlichkeiten der Randomized-Response-Mechanismen so optimiert, dass die Modellleistung maximiert und gleichzeitig eine vorgegebene Fairness-Schwelle eingehalten wird.
Die Autoren zeigen, dass FairRR im Vergleich zu anderen Vorverarbeitungsmethoden gute Ergebnisse in Bezug auf Modellgenauigkeit und Fairness erzielt. Zudem kann FairRR die Fairness-Schwelle direkt kontrollieren, was in der Praxis von Vorteil sein kann.
Die theoretische Herleitung basiert auf Erkenntnissen zur fairen Bayes'schen Optimalklassifikation und verbindet diese mit dem Randomized-Response-Verfahren. Damit erweitern die Autoren die bisherige Forschung von der In-Processing- auf die Vorverarbeitungsdomäne.
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문