이 논문은 대규모 언어 모델(LLM)의 프라이버시를 보장하는 새로운 예측 프로토콜인 PMixED를 소개한다.
이 접근 방식은 DP-SGD와 달리 훈련 중에 프라이버시를 보장하지 않고 예측 단계에서 프라이버시를 보장한다. 실험 결과, PMixED는 DP-SGD보다 우수한 성능을 보였다.
In un'altra lingua
dal contenuto originale
arxiv.org
Approfondimenti chiave tratti da
by James Flemin... alle arxiv.org 03-26-2024
https://arxiv.org/pdf/2403.15638.pdfDomande più approfondite