Core Concepts
해석 가능 모델의 구조를 활용하여 모델의 학습 데이터에 대한 확률적 재구성을 수행하고, 이를 통해 모델이 학습 데이터에 대해 누출하는 정보의 양을 측정할 수 있다.
Abstract
이 논문은 해석 가능 모델의 구조를 활용하여 모델의 학습 데이터에 대한 확률적 재구성을 수행하는 방법을 제안한다.
먼저, 기존의 확률적 데이터셋 표현에 대한 한계를 지적하고, 이를 일반화한 확률적 데이터셋 개념을 소개한다. 이를 통해 다양한 형태의 해석 가능 모델에서 추출할 수 있는 지식을 효과적으로 표현할 수 있다.
다음으로, 일반화된 확률적 데이터셋에 대한 재구성 성공도 측정 지표를 제안한다. 이 지표는 모델이 학습 데이터에 대해 누출하는 정보의 양을 효과적으로 양화할 수 있다.
마지막으로, 결정 트리와 규칙 리스트 모델에 대해 제안한 방법을 적용하여, 최적 모델과 휴리스틱 모델 간의 재구성 성공도를 비교한다. 이를 통해 최적 모델이 휴리스틱 모델에 비해 학습 데이터에 대한 정보 누출이 적다는 것을 보인다.
Stats
결정 트리 모델에서 각 분기의 지원 수 Cj와 분기를 만족하는 예측 수 num(fj)의 곱은 해당 분기에 대한 확률적 재구성의 불확실성을 나타낸다.
규칙 리스트 모델에서 각 규칙 fj가 포착하는 예측 수 CaptRL(fj)는 이전 규칙들과의 중복을 제거한 값으로, 이는 해당 규칙에 대한 확률적 재구성의 불확실성을 나타낸다.
Quotes
"해석 가능성은 신뢰할 수 있는 기계 학습을 위한 핵심 요구 사항으로 지적되고 있다. 그러나 본질적으로 해석 가능한 모델을 학습하고 공개하는 것은 기본 학습 데이터에 대한 정보를 누출한다."
"최적의 해석 가능 모델은 그리디하게 구축된 모델보다 더 compact하고 동일한 정확도 수준에서 학습 데이터에 대한 정보 누출이 적다."