이 논문은 연합 학습에서 데이터 이질성이 모델 표현에 미치는 영향을 분석하고, 이를 해결하기 위한 방법을 제안한다.
먼저 실험을 통해 데이터 이질성이 심할수록 전역 모델과 지역 모델 모두에서 더 심각한 차원 축소 현상이 발생함을 관찰한다. 이는 전역 모델의 차원 축소가 지역 모델로부터 비롯된다는 것을 시사한다.
이후 이론적 분석을 통해 데이터 이질성이 지역 모델의 가중치 행렬을 저rank로 편향시키고, 이로 인해 표현 공간의 차원 축소가 발생함을 보인다.
이러한 관찰과 분석을 바탕으로, 저자들은 지역 학습 과정에서 표현 벡터들의 상관관계를 최소화하는 FEDDECORR 방법을 제안한다. FEDDECORR은 계산 효율적이면서도 차원 축소 문제를 효과적으로 완화할 수 있음을 실험을 통해 입증한다.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Yujun Shi,Ji... at arxiv.org 04-09-2024
https://arxiv.org/pdf/2210.00226.pdfDeeper Inquiries