Abstract
현재 심층 신경망(DNNs)은 과적합되어 있으며 각 작업에 대해 대부분의 신경 연결을 사용합니다.
제안된 반복적 가지치기 전략은 중요도 점수 지표를 도입하여 중요하지 않은 연결을 비활성화하여 DNNs의 과적합 문제를 해결합니다.
LeNet 아키텍처에 대해 MNIST에서 비교 가능한 성능을 달성하고 CIFAR-10/100 및 Tiny-ImageNet에서 상태-of-the-art 알고리즘보다 높은 매개변수 압축을 달성합니다.
가지치기 알고리즘은 현재 하드웨어 및 소프트웨어 구현을 고려할 때 FLOP를 최소화하도록 설계되지 않았지만, 최신 기술과 비교할 때 합리적으로 수행됩니다.
Stats
인간 뇌는 다른 작업을 위해 특수화된 영역을 발전시키고, 신경 연결의 작은 부분을 사용하여 추론을 수행합니다.
VGG 아키텍처에서 50배 이상의 압축을 보여줍니다.
ResNet 아키텍처에서 상태-of-the-art 알고리즘보다 더 나은 매개변수 압축을 달성합니다.
Quotes
"우리의 접근 방식은 중요한 연결을 결정하는 데 입력 신호를 사용하여 연결을 가지치기하고, 이는 연결을 가지치기할 때 연결의 수를 결정하는 데 도움이 됩니다."