이 논문은 개인정보 보호 문제를 해결하기 위한 Differentially-Private Offsite Prompt Tuning (DP-OPT) 방법을 제안한다.
프롬프트 전이성: 대규모 언어 모델(LLM)이 자체적으로 생성한 이산 프롬프트가 다른 모델로 전이될 수 있음을 보여준다. 이를 통해 로컬 모델에서 프롬프트를 튜닝하고 클라우드 모델에서 사용할 수 있는 오프사이트 프롬프트 튜닝(OPT) 프레임워크를 제안한다.
차등 프라이버시 보장 프롬프트 생성: 개인정보 유출 위험을 해결하기 위해 차등 프라이버시 보장 프롬프트 생성 메커니즘을 제안한다. 이는 개인 데이터 샘플을 사용하여 LLM에서 프롬프트를 생성하는 과정을 차등 프라이버시 보장 앙상블 기법으로 구현한다.
실험 결과: DP-OPT는 개인정보 보호와 성능 사이의 균형을 잘 유지하며, 비밀 데이터를 사용하지 않고도 클라우드 모델에서 경쟁력 있는 성능을 달성할 수 있음을 보여준다.
In un'altra lingua
dal contenuto originale
arxiv.org
Approfondimenti chiave tratti da
by Junyuan Hong... alle arxiv.org 03-19-2024
https://arxiv.org/pdf/2312.03724.pdfDomande più approfondite