참고문헌: Santana de Oliveira, A., Kaplan, C., Mallat, K., & Chakraborty, T. (2024). An Empirical Analysis of Fairness Notions under Differential Privacy. In Proceedings of the Fourth AAAI Workshop on Privacy-Preserving Artificial Intelligence (PPAI-23).
연구 목적: 본 연구는 차분 프라이버시(DP)를 적용한 딥러닝 모델 학습이 기존 연구에서 주장하는 것처럼 불공정성을 악화시키는지 실증적으로 분석하는 것을 목표로 한다.
연구 방법: 연구진은 ML 공정성 연구에서 널리 사용되는 Adult, ACS Income, ACS Employment, LSAC, COMPAS 등 5개의 테이블 형식 데이터 세트를 사용했다. 각 데이터 세트에 대해 DP-SGD(차분 프라이버시 확률적 경사 하강법)를 사용하여 모델을 학습하고, 그룹 간의 불균형을 측정하는 세 가지 공정성 지표(인구 통계적 패리티, 동등한 오즈, 예측 패리티)를 계산했다. 또한, DP-SGD를 적용하지 않은 기준 모델과 비교하여 DP-SGD 적용 시 공정성 지표의 변화를 분석했다.
주요 연구 결과: 연구 결과, DP-SGD를 적용한 모델이 기준 모델에 비해 그룹 간의 불균형을 줄이는 경우가 더 많은 것으로 나타났다. 특히, ACS Income 및 ACS Employment 데이터 세트에서는 모든 공정성 지표에서 그룹 간의 불균형이 유의미하게 감소했다. 반면, Adult 데이터 세트에서는 불균형이 크게 감소하지 않았지만, DP-SGD를 적용해도 편 bias가 악화되지는 않았다.
주요 결론: 본 연구는 DP-SGD를 적용한 딥러닝 모델 학습이 반드시 불공정성을 악화시키는 것은 아니며, 오히려 특정 조건에서는 그룹 간의 불균형을 줄일 수 있음을 시사한다.
연구의 의의: 본 연구는 차분 프라이버시와 공정성 사이의 관계에 대한 새로운 시각을 제시하며, 개인정보보호 강화가 반드시 공정성 저하로 이어지지 않을 수 있음을 보여준다.
연구의 한계점 및 향후 연구 방향: 본 연구는 테이블 형식 데이터 세트에 국한되었으며, 향후 이미지, 텍스트 등 다양한 유형의 데이터 세트에 대한 추가 연구가 필요하다. 또한, DP-SGD와 공정성 지표 간의 수학적 관계를 명확히 규명하는 연구도 필요하다.
Na inny język
z treści źródłowej
arxiv.org
Głębsze pytania