핵심 개념
비 IID 데이터 환경에서 로컬 모델 다양성을 향상시켜 통신 비용을 줄이면서도 전체 모델 성능을 높일 수 있는 방법을 제안한다.
초록
이 논문은 통신 비용을 줄이고 비 IID 데이터 환경에서 모델 성능을 향상시키기 위한 One-Shot 순차 연합 학습 방법을 제안한다.
주요 내용은 다음과 같다:
- 각 클라이언트가 모델 풀을 유지하여 다양한 모델을 생성하도록 한다.
- 모델 간 거리 제약 조건을 도입하여 모델 다양성을 향상시키고 비 IID 데이터의 영향을 완화한다.
- 실험 결과, 제안 방법이 기존 One-Shot 연합 학습 방법들에 비해 성능이 우수하며, 특히 레이블 편향과 도메인 편향 데이터셋에서 큰 성능 향상을 보인다.
통계
각 클라이언트의 로컬 데이터셋 𝐷𝑖에 대한 모델의 평균 거리 𝑑1은 모델 다양성을 높이기 위해 최대화된다.
초기 모델 𝑚𝑖
0와 현재 모델 𝑚𝑖
𝑗 간의 거리 𝑑2는 비 IID 데이터의 영향을 완화하기 위해 최소화된다.
인용구
"기존 연구에서는 다양한 네트워크를 결합하면 모델 성능이 크게 향상되는데, 이는 모델 가중치 간 내재적 다양성 때문이다."
"One-shot 순차 연합 학습에서는 각 클라이언트가 인접 클라이언트로부터 단 하나의 모델만 받기 때문에, 모델 다양성이 충분하지 않을 수 있다."