Core Concepts
연합 학습에서 이전 라운드의 업데이트와 공개 데이터를 활용하여 다중 강건한 코드북을 생성하는 FedMPQ 기법을 제안한다. 이를 통해 통신 비용을 크게 줄이면서도 모델 정확도를 유지할 수 있다.
Abstract
이 논문은 연합 학습에서 통신 비용을 줄이면서도 모델 정확도를 유지하는 FedMPQ 기법을 제안한다. 기존 연구에서는 공개 데이터만을 활용하여 코드북을 생성했지만, 이 경우 공개 데이터와 클라이언트 데이터의 분포 차이로 인해 성능이 저하되는 문제가 있었다.
FedMPQ에서는 이전 라운드의 업데이트와 공개 데이터를 활용하여 다중 강건한 코드북을 생성한다. 이를 통해 비IID 데이터 환경에서도 높은 성능을 달성할 수 있다. 또한 잔차 오차 압축 기법을 도입하여 통신 압축률을 유연하게 조절할 수 있다.
안전성 측면에서는 신뢰 실행 환경(TEE) 또는 신뢰할 수 있는 제3자(TTP)를 활용하여 압축된 도메인에서 업데이트를 집계함으로써, 서버나 제3자가 개별 클라이언트의 데이터를 복원할 수 없도록 한다.
실험 결과, FedMPQ는 기존 방식 대비 90-95%의 통신 비용 감소와 함께 최종 정확도 99%를 달성하였다. 특히 비IID 데이터 환경에서 더 나은 성능을 보였다.
Stats
연합 학습에서 클라이언트의 업데이트를 서버가 직접 확인할 경우 데이터 유출의 위험이 있다.
공개 데이터만을 활용하여 코드북을 생성할 경우 클라이언트 데이터와의 분포 차이로 인해 성능이 저하될 수 있다.
FedMPQ는 이전 라운드의 업데이트와 공개 데이터를 활용하여 다중 강건한 코드북을 생성함으로써 90-95%의 통신 비용 감소와 99%의 최종 정확도를 달성하였다.
Quotes
"연합 학습에서 특히 크로스-디바이스 시나리오에서 안전한 집계가 최근 인기를 얻고 있다. 이는 악의적인 집계자로부터의 추론 공격을 효과적으로 방어할 수 있기 때문이다."
"그러나 안전한 집계는 종종 추가적인 통신 오버헤드를 요구하며 전역 모델의 수렴률을 저해할 수 있다. 이는 특히 극도로 제한된 대역폭을 가진 무선 네트워크 환경에서 큰 문제가 된다."