Core Concepts
연합 학습에서 클라이언트와 서버 간 모델 업데이트 전송 효율을 높이기 위해 오류 제한 손실 압축 기법인 FEDSZ를 제안한다.
Abstract
이 논문은 연합 학습(Federated Learning, FL) 환경에서 클라이언트와 서버 간 모델 업데이트 전송 효율을 높이기 위한 FEDSZ 압축 기법을 소개한다.
연합 학습에서 클라이언트-서버 간 통신이 중요한 병목 현상이 될 수 있으며, 이를 해결하기 위해 오류 제한 손실 압축(EBLC) 기법을 활용한다.
FEDSZ는 모델 파라미터를 손실 압축과 무손실 압축으로 나누어 압축하는 방식으로, SZ2 압축기와 blosc-lz 압축기를 사용한다.
다양한 모델(AlexNet, MobileNetV2, ResNet50)과 데이터셋(CIFAR-10, Caltech101, Fashion-MNIST)에 대해 실험한 결과, 상대 오차 한계 10^-2에서 5.55-12.61배의 압축률을 달성하면서 정확도 저하가 0.5% 미만으로 유지되었다.
FEDSZ의 압축 및 해압축 오버헤드는 전체 통신 시간의 4.7% 미만으로, 10Mbps 네트워크에서 최대 13.26배의 통신 시간 단축 효과를 보였다.
FEDSZ는 128개 클라이언트까지 효과적으로 확장성을 보였으며, 손실 압축이 도입하는 오차가 차등 프라이버시를 위한 잡음으로 활용될 수 있는 가능성을 보였다.
Stats
10Mbps 네트워크에서 FEDSZ를 사용하면 AlexNet의 통신 시간이 109.87초 단축되어 13.26배 감소한다.
FEDSZ를 사용하면 MobileNetV2와 ResNet50의 통신 시간이 각각 12.23%, 9.74% 감소한다.
Quotes
"연합 학습에서 클라이언트-서버 간 통신이 중요한 병목 현상이 될 수 있다."
"FEDSZ는 모델 파라미터를 손실 압축과 무손실 압축으로 나누어 압축하는 방식으로, SZ2 압축기와 blosc-lz 압축기를 사용한다."
"상대 오차 한계 10^-2에서 FEDSZ는 5.55-12.61배의 압축률을 달성하면서 정확도 저하가 0.5% 미만으로 유지되었다."