核心概念
적응형 날카로움 인지 가지치기(AdaSAP)는 신경망의 견고성과 압축성을 동시에 최적화하는 방법이다. 이를 통해 입력 변화에 강인한 희소 신경망을 생성할 수 있다.
摘要
이 논문은 신경망의 견고성과 압축성을 동시에 달성하는 방법인 적응형 날카로움 인지 가지치기(AdaSAP)를 제안한다. AdaSAP는 다음 3단계로 구성된다:
- 적응형 가중치 교란: 가지치기 대상이 되는 뉴런들이 평탄한 손실 영역에 위치하도록 하여 가지치기 후 성능 저하를 최소화한다.
- 뉴런 제거: 중요도 기준에 따라 뉴런을 제거하는 가지치기 단계를 수행한다.
- 견고성 강화: 전체 신경망에 걸쳐 평탄한 손실 영역을 유도하여 견고성을 향상시킨다.
AdaSAP는 다양한 가지치기 기준과 신경망 구조에 대해 검증되었으며, 기존 최신 기법들에 비해 이미지 분류와 객체 탐지 작업에서 더 우수한 성능을 보였다. 특히 입력 변화에 대한 견고성이 크게 향상되었다.
统计
가지치기 후에도 ImageNet-C 데이터셋에서 최대 6%p, ImageNet-V2 데이터셋에서 최대 4%p 더 높은 견고성 성능을 보였다.
오염된 Pascal VOC 데이터셋에서 객체 탐지 성능이 최대 4%p 향상되었다.
引用
"Robustness and compactness are two essential attributes of deep learning models that are deployed in the real world."
"The goals of robustness and compactness may seem to be at odds, since robustness requires generalization across domains, while the process of compression exploits specificity in one domain."
"AdaSAP improves the robust accuracy of pruned models on image classification by up to +6% on ImageNet C and +4% on ImageNet V2, and on object detection by +4% on a corrupted Pascal VOC dataset, over a wide range of compression ratios, pruning criteria, and network architectures, outperforming recent pruning art by large margins."