Core Concepts
개인정보 보호를 위해 각 당사자가 요구하는 차등 프라이버시 수준을 고려하여 공정하고 개별적으로 합리적인 보상 체계를 설계하고, 협력 모델의 유용성을 최대화하는 것이 핵심 아이디어이다.
Abstract
이 논문은 협력 기계 학습에서 참여 당사자들의 인센티브를 보장하는 새로운 보상 체계를 제안한다. 기존 연구에서는 데이터 공유에 따른 공정성과 개별 합리성 인센티브만을 고려했지만, 이 논문에서는 여기에 더해 개인정보 보호 인센티브를 추가로 고려한다.
구체적으로, 각 당사자는 자신이 요구하는 차등 프라이버시 수준을 선택할 수 있다. 중재자는 이를 고려하여 당사자들의 기여도를 평가하고, 개인정보 보호와 모델 성능 간의 균형을 이루는 보상을 제공한다.
중재자는 당사자들의 퍼터브된 충분 통계량을 활용하여 베이지안 추론을 수행하고, 이를 기반으로 각 당사자의 기여도를 측정한다. 이때 더 강한 프라이버시 보장을 요구하는 당사자의 기여도는 상대적으로 낮게 평가된다.
보상 체계는 공정성, 개별 합리성, 전체 효용 극대화 등의 인센티브를 만족시키며, 각 당사자에게 개별적인 모델 파라미터 샘플을 제공한다. 이 샘플은 전체 협력 모델과 높은 유사도를 가지면서도 당사자의 개인정보 보호를 보장한다.
실험 결과, 제안된 보상 체계가 개인정보 보호와 모델 성능 간의 균형을 잘 유지하는 것을 확인할 수 있다.
Stats
각 당사자의 데이터셋 크기 ci는 각각 100, 200, 400이다.
당사자 2의 차등 프라이버시 보장 수준 ϵ2를 변화시켰을 때, 당사자 2의 기여도 v2, 셰플리 가치 ϕ2, 그리고 보상 값 r2가 변화한다.
Quotes
"협력 기계 학습은 다수 당사자의 데이터를 활용하여 모델을 학습하지만, 참여 당사자들의 인센티브를 보장해야 한다."
"기존 데이터 가치 평가 방법은 공정성과 개별 합리성 인센티브는 고려하지만, 개인정보 보호 위험은 간과한다."