Core Concepts
연합 학습 환경에서 배치 정규화(BN)의 성능을 개선하는 방법을 제안한다. 기존 연구에서는 BN 대신 그룹 정규화(GN)를 사용하는 것이 더 좋다고 제안했지만, 다양한 실험 결과 BN이 많은 경우에서 GN보다 우수한 성능을 보인다는 것을 발견했다. 이를 바탕으로 BN의 단점을 해결하면서도 장점을 유지할 수 있는 FIXBN 기법을 제안한다.
Abstract
이 논문은 연합 학습(Federated Learning, FL) 환경에서 배치 정규화(Batch Normalization, BN)와 그룹 정규화(Group Normalization, GN)의 성능을 비교하고, BN의 단점을 해결하는 FIXBN 기법을 제안한다.
먼저, 기존 연구에서 제안된 GN이 BN보다 우수하다는 주장을 반박하기 위해 다양한 FL 환경에서 BN과 GN의 성능을 비교한다. 실험 결과, GN이 극단적인 non-IID 데이터와 높은 통신 빈도 환경에서만 BN보다 우수한 성능을 보였으며, 그 외의 환경에서는 BN이 GN을 능가하는 것을 확인했다.
이어서 BN이 FL에서 성능이 저하되는 원인을 분석한다. 비 IID 데이터로 인한 각 클라이언트의 미니배치 통계량 차이와 이로 인한 국소 경사도 편향 문제, 그리고 학습-테스트 간 정규화 통계량 불일치 문제를 확인했다.
이를 바탕으로 FIXBN 기법을 제안한다. FIXBN은 초기 학습 단계에서는 기존 BN을 사용하다가, 일정 시점 이후에는 전역 평균/분산 통계량을 고정하여 사용함으로써 BN의 장점은 유지하면서 단점을 해결한다. 또한 국소 SGD 모멘텀을 유지하는 기법도 함께 제안한다.
다양한 실험을 통해 FIXBN이 BN과 GN을 모두 능가하는 성능을 보이며, 특히 높은 통신 빈도 환경에서 두드러진 성능 향상을 확인했다. 이를 통해 FIXBN이 연합 학습에서 배치 정규화의 활용도를 높일 수 있음을 보였다.
Stats
중앙집중형 학습에서 ResNet20 모델의 CIFAR-10 정확도는 89.30%이지만, 연합 학습에서는 42.93%로 크게 낮아진다.
중앙집중형 학습에서 ResNet18 모델의 ImageNet-1K 정확도는 91.53%이지만, 연합 학습에서는 45.96%로 낮아진다.
Quotes
"BN은 중앙집중형 학습에서 GN보다 일반적으로 더 좋은 성능을 보이지만, 연합 학습에서는 상황에 따라 다르다."
"FIXBN은 BN의 장점을 유지하면서도 연합 학습의 단점을 해결할 수 있는 효과적인 방법이다."