Core Concepts
연방 학습에서 국부 최적화와 일반화 성능을 동시에 고려하여 일관된 부드러운 최소값을 효율적으로 찾는 알고리즘
Abstract
이 논문은 연방 학습(Federated Learning) 환경에서 국부 최적화와 일반화 성능을 동시에 고려하는 새로운 알고리즘 FedSMOO를 제안한다.
주요 내용은 다음과 같다:
동적 정규화 기법을 사용하여 국부 최적값을 전역 목표로 유도하고, 전역 Sharpness Aware Minimization (SAM) 최적화기로 일관된 평탄한 최소값을 탐색한다.
이론적 분석을 통해 FedSMOO가 빠른 O(1/T) 수렴 속도와 우수한 일반화 성능을 달성할 수 있음을 보인다.
CIFAR-10/100 데이터셋에 대한 실험 결과, FedSMOO가 기존 방법들에 비해 우수한 성능을 보인다. 특히 데이터 이질성이 높은 환경에서 강점을 발휘한다.
Stats
연방 학습에서 국부 업데이트 길이와 부분 참여 비율이 증가할수록 성능이 크게 저하된다.
데이터 이질성이 높을수록 기존 방법들의 성능이 크게 떨어진다.
Quotes
"연방 학습에서 주요한 영향은 클라이언트 drift로, 이는 이질적인 데이터셋에서 불일치한 국부 최적값이 전역 목표에서 벗어나는 본질적인 문제이다."
"기존 연구들은 주로 최적화 관점에서 전역 일관성 목표를 다루었지만, 데이터 이질성이 높은 경우 성능이 크게 저하된다."