Core Concepts
딥 신경망은 경험적으로 정당화된 작업 신뢰도를 계산하거나 나타내지 않는다. 중요한 애플리케이션에서는 관련 딥 신경망 추론과 그 증거를 이해하는 것이 중요하다. 이 논문에서는 딥 신경망에서 설명, 정당성 및 불확실성 추정치를 추출하는 새로운 베이지안 접근 방식을 제안한다.
Abstract
이 논문은 검은 상자 딥 신경망(DNN)에서 설명, 정당성 및 불확실성 추정치를 추출하는 새로운 베이지안 접근 방식을 제안한다.
기존 방법의 한계:
메모리와 계산 측면에서 비효율적이어서 대규모 데이터 세트와 엣지 디바이스에 적용하기 어려움
제안 방법:
희소 가우시안 프로세스(SGP)를 활용하여 계산 효율성을 높임
사전 학습된 DNN의 잠재 임베딩을 사용하여 모델 출력을 예측하고 예측 불확실성을 추정
훈련 세트 샘플과의 상관관계를 통해 예측에 대한 예제 기반 정당성 제공
장점:
베이지안 불확실성 정량화
예제 기반 설명을 통한 예측 정당성
계산 및 메모리 효율성 향상
실험:
CIFAR-10 데이터셋에 적용하여 기존 방법과 비교
레이블 정확도, 새로운 레이블 신뢰도, 계산 시간 측면에서 성능 향상 확인
Stats
딥 신경망은 경험적으로 정당화된 작업 신뢰도를 계산하거나 나타내지 않는다.
중요한 애플리케이션에서는 관련 딥 신경망 추론과 그 증거를 이해하는 것이 중요하다.
Quotes
"딥 신경망은 경험적으로 정당화된 작업 신뢰도를 계산하거나 나타내지 않는다."
"중요한 애플리케이션에서는 관련 딥 신경망 추론과 그 증거를 이해하는 것이 중요하다."