핵심 개념
연합 대조 학습에서는 회원 정보 유출의 위험이 존재하며, 이를 완화하기 위한 방법이 필요하다.
초록
연합 대조 학습(Federated Contrastive Learning, FCL)은 분산된 환경에서 레이블이 없는 데이터를 활용하여 전역 인코더를 학습하는 접근법이다. 이는 다양한 하위 작업에 활용할 수 있는 범용 특징 추출기를 제공한다. 그러나 FCL은 분산 학습 특성으로 인해 회원 정보 유출과 같은 프라이버시 위험에 노출될 수 있다.
이 연구에서는 FCL에 대한 회원 정보 유출 공격의 실행 가능성을 입증하고, 이를 위한 강력한 공격 방법론을 제안한다. 공격자의 목표는 모델의 추론 출력에 접근하여 데이터가 학습 회원 데이터인지 여부를 판단하는 것이다. 특히 클라이언트 프레임워크 내에 있는 공격자를 고려하며, 서버 측 집계 방법을 조작하거나 다른 클라이언트의 학습 상태를 파악할 수 없다고 가정한다.
두 가지 회원 정보 유출 공격 방법을 제안한다:
수동 회원 정보 유출 공격: 공격자가 학습 과정에 참여하지 않고 학습된 모델 매개변수만 획득하여 공격을 수행한다.
능동 회원 정보 유출 공격: 공격자가 자신의 로컬 모델을 조정하고 추론 데이터에 대해 경사 상승을 수행한 후 서버에 업로드하여 공격을 수행한다.
수동 공격에서는 코사인 유사도 기반, 내부 모델 기반, 특징 조합 기반의 세 가지 접근법을 제안한다. 능동 공격에서는 경사 상승을 통해 회원 데이터와 비회원 데이터의 손실 증가 속도 차이를 관찰한다.
실험 결과는 제안된 공격 방법들의 효과성을 입증하며, 연합 대조 학습 프레임워크에 내재된 프라이버시 유출 위험을 강조한다.
통계
연합 대조 학습 모델은 과적합으로 인해 회원 데이터와 비회원 데이터의 손실 증가 속도에 차이가 발생한다.
연합 대조 학습 모델의 내부 인코더 출력에서 회원 데이터와 비회원 데이터의 예측 확률 분포에 차이가 존재한다.
인용구
"연합 대조 학습(FCL)은 분산된 환경에서 레이블이 없는 데이터를 활용하여 전역 인코더를 학습하는 접근법이다."
"FCL은 분산 학습 특성으로 인해 회원 정보 유출과 같은 프라이버시 위험에 노출될 수 있다."