Core Concepts
분할 학습에서 교환되는 중간 결과(smashed data와 gradients)가 개인 레이블을 유출할 수 있음을 수학적으로 분석하고, 이를 기반으로 효율적인 레이블 추론 공격 기법을 제안한다.
Abstract
분할 학습에서는 학습 모델을 여러 부분으로 나누어 참여자들이 협력하여 학습을 진행하는데, 이때 중간 결과(smashed data와 gradients)만을 교환한다. 이 중간 결과에 개인 레이블 정보가 포함될 수 있다는 것을 수학적으로 분석하였다.
중간 결과의 유사도 측정을 위해 코사인 유사도와 유클리드 거리를 제안하였다. 이 두 유사도 측정치는 정규화된 데이터에서 동일한 의미를 가지므로, 통합된 유사도 측정 기법을 개발하였다.
제안한 유사도 측정 기반의 3가지 레이블 추론 공격 기법을 개발하였다. 이 기법들은 학습 및 추론 단계에서 모두 적용 가능하며, 단 하나의 레이블된 샘플만으로도 효과적으로 개인 레이블을 복구할 수 있다.
6개의 다양한 데이터셋에 대해 실험을 수행한 결과, 제안한 공격 기법이 기존 방식 대비 월등한 성능을 보였다. 또한 DP-SGD, 레이블 차분 프라이버시, gradient 압축, Marvell 등 다양한 방어 기법에 대해서도 강건한 것으로 나타났다.
Stats
분할 학습에서 교환되는 중간 결과(smashed data와 gradients)는 개인 레이블 정보를 포함하고 있다.