Kernkonzepte
연합 학습에서 엣지 서버의 풍부한 데이터를 활용하는 것이 사용자 데이터만 활용하는 것보다 훨씬 더 유익하다. 이를 위해 세 연산자 ADMM 기반의 FedTOP-ADMM 알고리즘을 제안한다.
Zusammenfassung
이 논문은 연합 학습(Federated Learning, FL)에 대해 다룬다. FL은 중앙 서버에 데이터를 공유하지 않고도 분산된 장치들이 협력하여 기계 학습 모델을 학습할 수 있게 하는 기술이다.
논문의 주요 내용은 다음과 같다:
- 기존 FL 기법들은 사용자 측의 데이터만을 활용하지만, 엣지 서버에 풍부한 데이터가 존재할 경우 이를 활용하는 것이 더 유익하다.
- 이를 위해 세 연산자 ADMM 기반의 FedTOP-ADMM 알고리즘을 제안한다. FedTOP-ADMM은 엣지 서버와 엣지 장치 모두에서 모델을 학습한다.
- FedTOP-ADMM I과 FedTOP-ADMM II 두 가지 변형을 제안한다. FedTOP-ADMM I은 엣지 서버에서 모델을 학습한 후 사용자 모델과 통합하지만, FedTOP-ADMM II는 통합 과정에서 엣지 서버 모델을 사용하지 않는다.
- 이론적 분석을 통해 FedTOP-ADMM의 수렴성을 증명하였다.
- 실험 결과, FedTOP-ADMM은 기존 FedADMM 대비 최대 33%의 통신 효율 향상을 보였다.
Statistiken
엣지 서버의 데이터를 활용하면 기존 FedADMM 대비 최대 33%의 통신 효율 향상을 달성할 수 있다.