Kernekoncepter
근사 기계 언러닝 방법의 효과성을 정확하게 평가하기 위해서는 기존 방식의 한계를 극복하고 새로운 감사 기법이 필요하다.
Resumé
이 논문은 근사 기계 언러닝의 효과성을 평가하기 위한 새로운 감사 프레임워크를 제안한다.
- 기존 평가 방식의 한계:
- 모델 재학습 필요, 현실적으로 어려움
- 데이터셋 성능 지표로는 언러닝 효과를 정확히 측정하기 어려움
- 제안하는 감사 기법:
- 비회원 추론 문제로 정의하여 원본 모델과 언러닝 모델의 출력 비교
- 두 가지 감사 점수 제안: L-Diff, D-Liks
- 기존 방식보다 정확도가 크게 향상됨
- 근사 언러닝 기법 분석:
- 7가지 근사 언러닝 기법 평가
- 언러닝 효용성, 복원력, 형평성 측면에서 분석
- 일부 기법은 언러닝 효과가 매우 제한적임을 확인
이 연구는 근사 언러닝 기법의 실효성을 정확히 평가할 수 있는 새로운 감사 프레임워크를 제시하여, 개인정보 보호를 위한 언러닝 기술의 발전에 기여한다.
Statistik
근사 언러닝 기법 중 Fine Tuning은 CIFAR10에서 0.30±0.12, CIFAR100에서 0.52±0.25의 TPR@FPR=0.01‰를 보였다.
근사 언러닝 기법 중 Gradient Ascent는 CIFAR10에서 0.32±0.19, CIFAR100에서 0.18±0.11의 TPR@FPR=0.01‰를 보였다.
근사 언러닝 기법 중 Forsaken은 CIFAR10에서 0.19±0.15, CIFAR100에서 0.20±0.11의 TPR@FPR=0.01‰를 보였다.