Core Concepts
시간 변화에 따른 표본 크기를 가진 차등 프라이버시 분산 확률적 최적화 알고리즘을 제안하며, 이를 통해 에이전트의 민감한 정보를 보호하면서도 알고리즘의 수렴을 보장한다.
Abstract
이 논문에서는 시간 변화에 따른 표본 크기를 가진 차등 프라이버시 분산 확률적 최적화 알고리즘을 제안한다.
출력 교란 방식과 gradient 교란 방식의 두 가지 알고리즘을 제시한다.
시간 변화에 따른 표본 크기 방법을 사용하여 프라이버시 수준을 향상시키고, 무한 반복에 대한 유한 누적 프라이버시 예산 ε을 달성한다.
리아푸노프 함수를 적절히 선택하여 분산 노이즈가 증가하는 경우에도 거의 확실한 수렴과 평균 제곱 수렴을 달성한다.
알고리즘의 평균 제곱 수렴 속도를 엄밀히 제공하고, 추가된 프라이버시 노이즈가 알고리즘의 수렴 속도에 미치는 영향을 보여준다.
벤치마크 기계 학습 데이터셋에 대한 분산 학습 등의 수치 예제를 통해 알고리즘의 효율성과 장점을 입증한다.
Stats
각 에이전트 i의 표본 gradient gipxi,k, ξl
iq는 Ergipxi,k, ξl
iqs = ∇fipxi,kq, Er}gipxi,k, ξl
iq - ∇fipxi,kq}2s ≤ σ2
g를 만족한다.
각 에이전트 i의 민감한 정보는 표본 gradient gipxi,k, ξl
iq에 포함되어 있다.
Quotes
"차등 프라이버시 분산 확률적 최적화는 분산 확률적 최적화에서 프라이버시 보호의 긴급한 필요성 때문에 핫 토픽이 되었다."
"기존 방법은 프라이버시와 정확도 사이의 trade-off를 유발한다."