核心概念
그룹별 컨셉 드리프트와 그 분산 버전은 연합 학습에서 공정성을 유지하는 데 있어 중요한 과제이다. 이를 해결하기 위해서는 그룹별 손실 모니터링과 다중 모델 접근법이 필요하다.
摘要
이 연구는 그룹별 컨셉 드리프트와 그 분산 버전을 처음으로 소개하고 정의한다. 그룹별 컨셉 드리프트는 한 그룹에서만 데이터 분포가 변화하는 상황을 말하며, 이는 전체 정확도가 유지되더라도 공정성을 저하시킬 수 있다. 분산 환경인 연합 학습에서는 이러한 그룹별 컨셉 드리프트가 클라이언트마다 독립적으로 발생할 수 있어 공정성 유지가 더욱 어려워진다.
이 문제를 해결하기 위해 제안된 FairFedDrift 알고리즘은 다중 모델 접근법을 사용하여 각 클라이언트가 그룹별 손실이 가장 낮은 모델에 할당되도록 한다. 또한 그룹별 드리프트 탐지 메커니즘과 모델 병합 과정을 통해 지속적으로 공정성을 유지한다. 실험 결과, FairFedDrift는 기존 방법들에 비해 공정성 지표를 크게 향상시키면서도 정확도를 유지할 수 있음을 보여준다.
統計資料
그룹 S=0인 경우 데이터 분포가 시간에 따라 변화하지만, 그룹 S≠0인 경우 데이터 분포가 변화하지 않는다.
클라이언트 k의 t시점 데이터 분포 P^t_k(y|X,S)와 t-1시점 데이터 분포 P^(t-1)_k(y|X,S)가 다를 수 있다.
서로 다른 클라이언트 k와 k'의 t시점 데이터 분포 P^t_k(y|X,S)와 P^t_{k'}(y|X,S)가 다를 수 있다.
引述
"그룹별 컨셉 드리프트는 한 그룹에서만 데이터 분포가 변화하는 상황을 말하며, 이는 전체 정확도가 유지되더라도 공정성을 저하시킬 수 있다."
"분산 환경인 연합 학습에서는 이러한 그룹별 컨셉 드리프트가 클라이언트마다 독립적으로 발생할 수 있어 공정성 유지가 더욱 어려워진다."