核心概念
분산 학습에서 통신 비용을 줄이기 위해 제안된 글로벌 모멘텀 압축(GMC) 기법은 기존 방식보다 더 높은 테스트 정확도와 빠른 수렴 속도를 달성할 수 있다.
摘要
이 논문은 분산 학습에서 통신 비용을 줄이기 위한 새로운 방법인 글로벌 모멘텀 압축(GMC)을 제안한다.
- 기존 방식들은 로컬 모멘텀을 사용했지만, GMC는 글로벌 모멘텀을 사용한다. 이를 통해 더 나은 성능을 달성할 수 있다.
- 더 공격적인 압축기(RBGS)를 사용할 때 수렴 성능을 높이기 위해 GMC+를 제안했다.
- GMC와 GMC+의 수렴 성과를 이론적으로 증명했다.
- 실험 결과, GMC와 GMC+가 기존 방식보다 더 높은 테스트 정확도와 빠른 수렴 속도를 보였다.
統計資料
분산 학습에서 통신 비용은 모델 학습의 병목이 되고 있다.
기존 방식들은 로컬 모멘텀을 사용했지만, GMC는 글로벌 모멘텀을 사용한다.
GMC와 GMC+는 기존 방식보다 더 높은 테스트 정확도와 빠른 수렴 속도를 보였다.
引述
"GMC combines error feedback and momentum to achieve sparse communication in distributed learning. But different from existing sparse communication methods like DGC which adopt local momentum, GMC adopts global momentum."
"To the best of our knowledge, this is the first work to introduce global momentum into sparse communication methods."