이 논문은 연합 학습 시스템에서 모델 평가 단계의 프라이버시 보호 문제를 다룬다. 현재 연합 학습 연구는 주로 모델 학습 단계의 프라이버시 보호에 초점을 맞추고 있지만, 모델 평가 단계에서도 중요한 프라이버시 침해 문제가 발생할 수 있다.
저자들은 현재 최신 기술인 차분 프라이버시 기반 AUC 계산 방법이 여전히 테스트 데이터에 대한 민감한 정보를 누출시키고, 데이터 크기가 작을 때 성능이 크게 저하된다는 문제점을 지적한다. 이를 해결하기 위해 완전 동형 암호화 기술을 활용한 새로운 AUC 계산 방법인 FHAUC를 제안한다.
FHAUC는 반 신뢰 공격자와 악의적 공격자 모두에 대해 데이터 프라이버시와 계산 무결성을 보장한다. 실험 결과, FHAUC는 기존 방법보다 정확도가 높고 데이터 크기에 영향을 받지 않으며, 계산 시간도 실시간 사용에 적합한 수준이다. 이를 통해 FHAUC는 연합 학습 시스템에서 모델 평가 단계의 프라이버시와 보안을 효과적으로 보장할 수 있음을 보여준다.
Para Outro Idioma
do conteúdo original
arxiv.org
Principais Insights Extraídos De
by Cem ... às arxiv.org 03-22-2024
https://arxiv.org/pdf/2403.14428.pdfPerguntas Mais Profundas