核心概念
연방 학습 알고리즘들은 정확도, 계산 오버헤드, 통신 오버헤드, 성능 안정성, 학습 불안정성 등 다양한 측면에서 서로 다른 특성을 보인다.
要約
이 연구는 연방 학습 알고리즘들의 종합적인 성능 평가를 수행했다. 주요 결과는 다음과 같다:
- 정확도-라운드 지표만으로는 알고리즘 성능을 정확히 평가할 수 없다. 계산 오버헤드를 고려해야 한다.
- 알고리즘별 계산 오버헤드는 하드웨어와 모델 아키텍처에 따라 다르다. 일반적으로 최신 알고리즘들이 FedAvg보다 더 많은 오버헤드를 보인다.
- FedDyn은 가장 높은 정확도를 달성하지만 가장 많은 계산 오버헤드를 가진다.
- FedDyn은 가장 안정적인 성능을 보이지만, SCAFFOLD와 FedDyn은 gradient clipping 없이 학습할 때 가장 불안정하다.
- 서버 측 최적화 알고리즘들(FedAdam, FedYogi)은 안정적이고 효율적인 대안이 될 수 있다.
統計
FedDyn은 FedAvg 대비 57.9% 더 오래 걸려 100라운드 학습을 완료한다.
CPU에서 FedDyn의 런타임은 FedAvg 대비 252.90% 증가한다.
SCAFFOLD의 통신 오버헤드는 FedAvg 대비 2배 크다.
引用
"정확도-라운드 지표만으로는 알고리즘 성능을 정확히 평가할 수 없다. 계산 오버헤드를 고려해야 한다."
"FedDyn은 가장 높은 정확도를 달성하지만 가장 많은 계산 오버헤드를 가진다."
"SCAFFOLD와 FedDyn은 gradient clipping 없이 학습할 때 가장 불안정하다."