Core Concepts
개인정보 보호를 위해 대규모 언어 모델의 출력 분포를 공개 모델의 분포와 혼합하여 프라이버시를 보장하는 예측 프로토콜을 제안한다.
Abstract
이 논문은 대규모 언어 모델(LLM)의 프라이버시를 보장하는 새로운 예측 프로토콜인 PMixED를 소개한다.
- 훈련 단계:
- 개인 데이터셋을 N개의 서로 다른 부분집합으로 분할하고, 각 부분집합을 사전 훈련된 LLM에 미세 조정하여 앙상블을 생성한다.
- 예측 단계:
- 사용자 쿼리에 대해 앙상블의 일부 모델을 무작위로 선택한다.
- 각 선택된 모델의 출력 분포를 공개 모델의 분포와 혼합하여 프라이버시를 보장한다.
- 혼합된 분포를 평균하고 샘플링하여 다음 토큰을 예측한다.
이 접근 방식은 DP-SGD와 달리 훈련 중에 프라이버시를 보장하지 않고 예측 단계에서 프라이버시를 보장한다. 실험 결과, PMixED는 DP-SGD보다 우수한 성능을 보였다.
Stats
대규모 언어 모델은 훈련 데이터 추출 공격에 취약하다.
차별적 프라이버시(DP)는 강력한 프라이버시 보장을 제공하지만, DP-SGD는 훈련 시간과 메모리 요구량이 크다.
PMixED는 DP-SGD보다 경량화되어 있으며, 예측 단계에서 프라이버시를 보장한다.
Quotes
"PMixED는 DP-SGD보다 경량화되어 있으며, 예측 단계에서 프라이버시를 보장한다."
"실험 결과, PMixED는 DP-SGD보다 우수한 성능을 보였다."