이 논문은 ZIP-DL이라는 새로운 프라이버시 보장 분산 학습(DL) 알고리즘을 소개한다. ZIP-DL은 모델 학습 과정에서 상관관계 있는 노이즈를 추가하여 프라이버시를 보장한다. 이 기법을 통해 노이즈가 집계 과정에서 서로 상쇄되어 모델 정확도에 미치는 영향을 최소화할 수 있다. 또한 ZIP-DL은 노이즈 제거를 위한 추가 통신 라운드가 필요 없어 통신 오버헤드를 줄일 수 있다.
논문에서는 ZIP-DL의 수렴 속도와 프라이버시 보장에 대한 이론적 보장을 제공한다. 또한 CIFAR-10 데이터셋을 사용한 실험을 통해 ZIP-DL이 정확도와 프라이버시 사이의 최적의 균형을 달성한다는 것을 보여준다. 특히 ZIP-DL은 (i) 기준 DL 대비 링커빌리티 공격 효과를 52% 포인트 감소시키고, (ii) 동일한 프라이버시 취약성 하에서 기존 프라이버시 보장 기법 대비 37% 포인트 더 높은 정확도를 달성한다.
Іншою мовою
із вихідного контенту
arxiv.org
Глибші Запити