Core Concepts
신경망 예측에 대한 입력 특정적 설명을 제공하기 위해 계층별 관련성 전파 방법을 수정하여 희소 설명을 생성한다.
Abstract
이 연구에서는 계층별 관련성 전파(LRP) 방법을 수정하여 신경망 예측에 대한 희소하고 집중된 설명을 제공하는 방법인 가지치기 계층별 관련성 전파(PLRP)를 제안한다.
PLRP는 각 계층에서 관련성이 낮은 뉴런을 가지치기하여 입력 특징과 중간 계층의 관련성 속성을 희소하게 만든다. 이를 위해 두 가지 접근법을 제시한다:
PLRP-λ: 가지치기된 관련성을 남은 뉴런에 비례하여 재분배
PLRP-M: 가지치기된 뉴런에 대해 0 관련성을 할당하고 LRP 방식으로 재전파
이 방법들은 이미지 분류와 유전체 서열 분류 과제에서 평가되었다. 결과적으로 PLRP는 LRP 대비 관련성 속성을 더 희소하게 만들면서도 핵심 특징에 더 집중된 설명을 제공한다. 또한 PLRP 설명은 입력 변화에 대해 더 강건한 것으로 나타났다.
Stats
관련성 속성의 지니 계수가 LRP 대비 크게 증가하여 희소성이 향상되었다.
관련성 속성의 엔트로피가 LRP 대비 크게 감소하여 관련성이 더 집중되었다.
관련성 속성의 질량 정확도가 LRP 대비 향상되어 중요 특징에 더 집중된 설명을 제공한다.
Quotes
"PLRP는 이미지 분류와 유전체 서열 분류 과제에서 LRP 대비 관련성 속성을 더 희소하게 만들면서도 핵심 특징에 더 집중된 설명을 제공한다."
"PLRP 설명은 입력 변화에 대해 더 강건한 것으로 나타났다."