Core Concepts
연합 학습의 안전한 집계 프로토콜(SecAgg)의 통신 및 계산 비용을 크게 줄이는 통신 효율적인 안전한 집계(CESA) 프로토콜을 제안한다.
Abstract
이 논문은 연합 학습(Federated Learning, FL)에서 안전한 집계(Secure Aggregation, SecAgg) 프로토콜의 통신 및 계산 비용을 줄이는 새로운 방법을 제안한다.
FL은 클라이언트 장치에서 모델을 로컬로 학습하고 서버가 이를 집계하여 전역 모델을 생성하는 분산 기계 학습 접근 방식이다. 그러나 FL은 모델 역추출 공격에 취약하다. SecAgg 프로토콜은 이 문제를 해결하지만 네트워크 규모가 증가함에 따라 통신 및 계산 비용이 크게 증가한다.
이 논문에서는 CESA(Communication-Efficient Secure Aggregation) 프로토콜을 제안한다. CESA는 SecAgg에 비해 다음과 같은 장점이 있다:
클라이언트당 2개의 공유 비밀만 사용하여 모델을 마스킹한다.
암호화를 수행하지 않는다.
네트워크 규모에 독립적인 통신 복잡도를 가진다.
CESA는 지연 변동이 낮고 클라이언트 탈락이 제한적인 네트워크에 적합하다. 초기 평가 결과, CESA는 SecAgg에 비해 통신 비용을 크게 줄일 수 있다.
Stats
연합 학습에서 클라이언트와 서버 간 전송되는 메시지 수는 다음과 같다:
CESA: 클라이언트 -> 서버: (n+1) x |C| 메시지, 서버 -> 클라이언트: n+1 메시지
SecAgg: 클라이언트 -> 서버: O(|C|) 메시지, 서버 -> 클라이언트: O(|C|^2) 메시지
여기서 n은 학습 라운드 수, |C|는 참여 클라이언트 수이다.