본 논문에서는 대규모 데이터셋에서 개인정보를 보호하면서 주성분 벡터를 효율적으로 계산하는, 차분 프라이버시를 갖춘 분산 랜덤 파워 메서드를 제안합니다.
차분 프라이버시를 적용한 딥러닝 모델 학습이 반드시 불공정성을 악화시키는 것은 아니며, 오히려 특정 조건에서는 그룹 간의 불균형을 줄일 수 있다.
본 논문에서는 사용자 정보와 보상 정보를 모두 개인 정보로 취급하는 공동 차분 프라이버시 (JDP) 제약 조건 하에서 고차원 희소 선형 밴딧 (SLCB) 문제를 다루고, 개인 정보 보호 수준에 따라 문제의 어려움을 나타내는 미니맥스 리그렛 하한을 설정하고, JDP 제약 조건 하에서 SLCB 문제에 대한 효율적인 알고리즘인 FLIPHAT을 제안합니다.
본 논문에서는 특정 구조를 가진 민감도 공간에서 차분 프라이버시 쿼리에 대한 답변을 위해 향상된 가우시안 메커니즘을 제시합니다. 이 메커니즘은 기존 가우시안 메커니즘보다 노이즈 크기를 줄여 정확도를 높이는 동시에 프라이버시를 보장합니다.
대규모 데이터셋에서 차분 프라이버시를 보장하는 머신러닝 모델 학습을 위해 계산 효율성이 뛰어난 새로운 행렬 분해 기법(BSR)을 제안합니다.
본 논문에서는 차분 프라이버시를 보장하면서도 생성 모델의 학습 성능을 향상시키는 새로운 학습 패러다임인 슬라이싱 메커니즘을 제안합니다.
차분 프라이버시를 적용하여 개인정보를 보호하면서 사전 훈련된 언어 모델을 미세 조정할 경우, 모델의 편향이 증가하고 특정 사회 집단에 대한 차별적인 결과를 초래할 수 있다.
차분 프라이버시를 적용한 언어 모델 학습에서 발생하는 유용성, 다양성, 언어적 품질 저하 문제를 해결하기 위해 데이터 합성, 차분 프라이버시 미세 조정, 자가 증류를 결합한 새로운 방법론인 DPRefine을 제시한다.
본 논문은 미국 연방 정부 기관에서 차분 프라이버시 기술 채택을 저해하는 요인들을 분석하고, 이를 극복하여 데이터 보안 및 활용성을 향상시킬 수 있는 방안을 제시합니다.
본 논문에서는 개인정보를 보호하면서 관측 데이터에서 인과 관계를 추론하기 위해 차분 프라이버시를 갖춘 새로운 공변량 균형 방법론을 제안합니다.