Core Concepts
연합학습 환경에서 지연 노드의 영향을 완화하고 프라이버시를 보호하기 위한 새로운 적응형 코드 기반 방법을 제안한다.
Abstract
이 논문에서는 연합학습 환경에서 지연 노드(straggler)의 문제를 해결하기 위한 새로운 방법인 적응형 코드 기반 연합학습(ACFL)을 제안한다.
첫 번째 단계에서, 각 디바이스는 로컬 데이터셋에 노이즈를 추가하여 코드화된 데이터셋을 중앙 서버에 업로드한다. 중앙 서버는 이 코드화된 데이터셋들을 이용해 전역 코드화 데이터셋을 생성한다.
두 번째 단계에서, 각 학습 반복 과정에서 중앙 서버는 지연 노드로부터 받은 gradient와 전역 코드화 데이터셋으로부터 계산된 gradient를 적응적으로 가중 평균하여 전역 gradient를 추정한다. 이때 가중치는 학습 성능과 프라이버시 성능을 최적화하는 적응 정책에 따라 결정된다.
이론적 분석을 통해 ACFL의 학습 성능과 프라이버시 성능을 특성화하였다. 시뮬레이션 결과, ACFL이 기존 비적응 방법들에 비해 우수한 성능을 보임을 확인하였다.
Stats
각 디바이스 i의 로컬 데이터셋 X(i)와 Y(i)의 모든 원소 절댓값은 1 이하이다.
각 디바이스 i가 계산한 local gradient G(i)_t의 Frobenius 노름은 β^2 이하이다.
모델 파라미터 행렬 W_t의 Frobenius 노름은 C^2 이하이다.
Quotes
"In ACFL, before training, each device uploads a local coded dataset, which is a transformed version of its local dataset with added random noise."
"During each training iteration, the central server aggregates the gradients received from the non-stragglers and the gradient computed from the global coded dataset, where an adaptive policy for varying the aggregation weights is designed."
"Under this policy, the performance in terms of privacy and learning is optimized, where the learning performance is described by convergence analysis and the privacy performance is measured by mutual information differential privacy (MI-DP)."