Core Concepts
CAPE는 이미지 영역의 절대적인 기여도를 확률적으로 평가하여 DNN 모델 해석을 향상시킨다.
Abstract
이 논문은 딥 신경망(DNN)의 복잡한 계산 과정과 블랙박스 특성으로 인해 결정 과정의 투명성과 해석성이 부족한 문제를 해결하고자 한다. 기존의 클래스 활성화 맵(CAM) 기반 방법은 상대적인 주목 정보만 제공하며, 클래스 간 의미 있는 비교가 어렵고 각 영역의 모델 예측 기여도를 드러내지 못한다.
이를 해결하기 위해 저자들은 CAPE라는 새로운 CAM 방법을 제안한다. CAPE는 이미지 영역의 절대적인 기여도를 확률적으로 평가하여 DNN 모델 해석을 향상시킨다. 구체적으로:
CAPE는 각 이미지 영역의 기여도를 정확하게 분해하여 모델 예측 결과와 직접적인 관계를 제공한다.
CAPE는 추가 모델 파라미터 없이 효율적으로 작동하며, 단일 순방향 추론만으로 설명을 생성한다.
CAPE는 클래스 간 구별되는 영역을 강조하지만, 클래스 공통 영역을 간과할 수 있다. 이를 보완하기 위해 μ-CAPE 방법을 제안한다.
저자들은 CUB, ImageNet, CMML 데이터셋에서 CAPE와 μ-CAPE의 성능을 정량적, 정성적으로 평가하여 기존 CAM 방법 대비 향상된 해석 능력을 입증한다.
Stats
각 이미지 영역의 기여도는 모델 예측 결과의 95%를 설명한다.
CAPE 설명은 클래스 간 차이의 84%를 설명한다.
μ-CAPE 설명은 클래스 간 차이의 95%를 설명한다.
Quotes
"딥 신경망(DNN)은 컴퓨터 비전과 자연어 처리 등 다양한 작업에서 뛰어난 성능을 달성했지만, 의사 결정 과정을 설명할 수 없는 블랙박스로 알려져 있다."
"의사 결정의 투명성은 자율 주행 및 의료 진단과 같은 생명에 중요한 시나리오에서 필수적이다."