본 논문은 머신 러닝 기술의 광범위한 사용으로 인해 데이터 제공자의 개인 정보 보호 위험이 증가하고 있으며, GDPR과 같은 최근 법률에 따라 요청된 데이터 및 그 영향을 학습된 모델에서 제거해야 하는 상황을 다루고 있습니다. 이러한 문제를 해결하기 위해 등장한 머신 언러닝 기술은 사용자의 개인 정보를 삭제할 수 있도록 설계되었지만, 모델 성능 저하 및 추가적인 개인 정보 유출 위험과 같은 한계점을 가지고 있습니다.
본 논문에서는 언러닝 성능과 개인 정보 보호 간의 경쟁 관계를 시뮬레이션하는 게임 이론 기반 머신 언러닝 알고리즘을 제안합니다. 이 알고리즘은 언러닝 모듈과 개인 정보 모듈로 구성됩니다.
본 논문에서는 공격자를 개인 정보 평가 메커니즘으로 취급하고 데이터 제거 및 ML 모델 최적화를 게임 참가자로 간주하여 게임 이론을 머신 언러닝에 적용합니다. 언러닝 모듈과 개인 정보 모듈은 손실 최소화 원칙에 따라 순차적으로 최적의 전략을 선택하며, 이는 Stackelberg 게임으로 모델링됩니다.
실제 데이터 세트에 대한 실험 결과는 이 게임 이론적 언러닝 알고리즘의 효과와 추가적인 개인 정보 유출 위험을 완화하면서 재학습된 모델과 유사한 성능을 가진 언러닝된 모델을 생성하는 기능을 입증합니다.
본 논문에서 제안된 게임 이론 기반 머신 언러닝 알고리즘은 머신 언러닝의 유용성과 개인 정보 보호 간의 균형을 효과적으로 찾아낼 수 있는 새로운 방법을 제시합니다.
Іншою мовою
із вихідного контенту
arxiv.org
Ключові висновки, отримані з
by Hengzhu Liu,... о arxiv.org 11-07-2024
https://arxiv.org/pdf/2411.03914.pdfГлибші Запити