Core Concepts
데이터 이질성으로 인한 클라이언트 드리프트 문제를 해결하기 위해 클라이언트가 압축된 데이터를 공유하고 서버가 이를 활용하여 글로벌 모델을 직접 학습하는 새로운 연합 학습 알고리즘을 제안한다.
Abstract
이 논문은 연합 학습(Federated Learning) 환경에서 데이터 이질성으로 인한 문제를 해결하기 위한 새로운 알고리즘인 FedAF를 제안한다.
기존의 연합 학습 알고리즘은 클라이언트가 로컬 데이터로 모델을 업데이트하고 이를 서버에서 평균하는 방식이었다. 그러나 이 과정에서 클라이언트 간 데이터 분포 차이로 인한 클라이언트 드리프트 문제가 발생할 수 있다.
FedAF는 이를 해결하기 위해 클라이언트가 압축된 데이터와 소프트 라벨을 서버에 전송하고, 서버가 이를 활용하여 글로벌 모델을 직접 학습하는 새로운 방식을 제안한다.
구체적으로, 클라이언트는 협력적 데이터 압축 기법을 통해 압축된 데이터를 생성하고, 서버는 이 압축된 데이터와 클라이언트가 제공한 소프트 라벨을 활용하여 글로벌 모델을 학습한다.
이를 통해 클라이언트 드리프트 문제를 해결하고, 데이터 이질성 환경에서도 우수한 성능을 달성할 수 있다.
실험 결과, FedAF는 다양한 데이터 이질성 환경에서 기존 연합 학습 알고리즘 대비 높은 정확도와 빠른 수렴 속도를 보였다.
Stats
클라이언트 k의 로컬 데이터 Dk의 평균 로짓 벡터 vk,c = 1/Nk,c Σj f_w(xj_k,c)
클라이언트 k의 압축된 데이터 Sk의 평균 로짓 벡터 uk,c = 1/Mk,c Σj f_w(xj_k,c)
서버의 전체 클라이언트 평균 로짓 벡터 vc = 1/K Σk vk,c
서버의 압축된 데이터 S에 대한 평균 소프트 라벨 tc = σ_w(1/|Sc| Σj f_w(xj_c), τ)
서버의 클라이언트 평균 소프트 라벨 rc = 1/K Σk rk,c, 여기서 rk,c = σ_w(vk,c, τ)
Quotes
"FedAF inherently avoids the issue of client drift, enhances the quality of condensed data amid notable data heterogeneity, and improves the global model performance."
"Extensive numerical studies on several popular benchmark datasets show FedAF surpasses various state-of-the-art FL algorithms in handling label-skew and feature-skew data heterogeneity, leading to superior global model accuracy and faster convergence."