Core Concepts
문서 및 문장 수준의 표현에 내재된 편향을 분석하고, 정확성과 공정성의 균형을 유지하는 방법을 제안한다.
Abstract
이 연구는 기계 학습 모델의 공정성에 대한 중요성을 다룬다. 특히 자연어 처리 도메인에서 문서 및 문장 수준의 표현(인코딩)에 내재된 편향을 분석한다.
주요 내용은 다음과 같다:
- 두 가지 실제 데이터셋(HLDC, MTC)을 사용하여 문서/문장 인코딩 방법(vector averaging, vector extrema)에 따른 편향 분석
- 주성분 분석(PCA)을 통해 각 그룹(보호 속성 값)의 재구성 오차 차이를 측정하여 편향 정도 파악
- 편향을 완화하면서도 분류 정확도를 유지하기 위해 두 인코딩 방법의 convex 조합을 제안
- 데이터셋과 요구사항에 따라 최적의 조합 비율을 선택하는 방법 제시
이를 통해 자연어 처리 모델의 공정성을 높이면서도 성능을 유지할 수 있는 방안을 제시한다.
Stats
HLDC 데이터셋의 경우 Hindu 그룹의 평균 문서 길이가 189.58로 Muslim 그룹의 184.62보다 길다.
MTC-gen 데이터셋의 경우 gender 1 그룹의 문장 길이 평균이 17.28로 gender 2 그룹과 동일하다.
MTC-eth 데이터셋의 경우 ethnicity 1 그룹의 문장 길이 평균이 17.28로 ethnicity 2 그룹과 동일하다.
Quotes
"With the growing number of deployments of machine learning models in various fields and applications, it has become increasingly important to study the aspect of fairness of these models with respect to various features or sub-groups."
"Depending on the task at hand, the irrelevance of P on the outcome could be a strong preference (such as in hate-speech tagging) or an uncompromisable, strict requirement with serious implications (such as for determining credit card eligibility)."
"Our goal is to use fair representation or transformation of X with respect to P for downstream classification task such that the classifiers built on X are less prone to bias towards specific subgroups or protected classes, while maintaining their overall accuracy."