Core Concepts
분산 학습에서 통신 비용을 줄이기 위해 제안된 글로벌 모멘텀 압축(GMC) 기법은 기존 방식보다 더 높은 테스트 정확도와 빠른 수렴 속도를 달성할 수 있다.
Abstract
이 논문은 분산 학습에서 통신 비용을 줄이기 위한 새로운 방법인 글로벌 모멘텀 압축(GMC)을 제안한다.
- 기존 방식들은 로컬 모멘텀을 사용했지만, GMC는 글로벌 모멘텀을 사용한다. 이를 통해 더 나은 성능을 달성할 수 있다.
- 더 공격적인 압축기(RBGS)를 사용할 때 수렴 성능을 높이기 위해 GMC+를 제안했다.
- GMC와 GMC+의 수렴 성과를 이론적으로 증명했다.
- 실험 결과, GMC와 GMC+가 기존 방식보다 더 높은 테스트 정확도와 빠른 수렴 속도를 보였다.
Stats
분산 학습에서 통신 비용은 모델 학습의 병목이 되고 있다.
기존 방식들은 로컬 모멘텀을 사용했지만, GMC는 글로벌 모멘텀을 사용한다.
GMC와 GMC+는 기존 방식보다 더 높은 테스트 정확도와 빠른 수렴 속도를 보였다.
Quotes
"GMC combines error feedback and momentum to achieve sparse communication in distributed learning. But different from existing sparse communication methods like DGC which adopt local momentum, GMC adopts global momentum."
"To the best of our knowledge, this is the first work to introduce global momentum into sparse communication methods."