Alapfogalmak
DNNの過剰パラメータ化と活性に基づく剪定戦略が提案され、高い圧縮率を実現。
Kivonat
人間の脳と比較してDNNは過剰な接続を持ち、提案された剪定戦略は重要な接続を無効化し、高い圧縮率を達成する。LeNetアーキテクチャにおいてMNISTで類似の精度を実現し、VGGおよびResNetアーキテクチャにおいて高いパラメータ圧縮率を達成。AdamとSGDの両方で優れた性能を示す。ニューラルネットワークの情報伝播に対する剪定戦略の効果も視覚化される。
Statisztikák
50倍以上の圧縮率を示す。
LeNet-300-100では1.51%のパラメータが残る。
VGG-likeでは2.32%のパラメータが残る。
Tiny-ImageNetでは75%以上のFLOPsが削減される。
Idézetek
"Sparse architectures are also more robust to noisy data and exhibit benefits in the context of adversarial training."
"Our approach achieves comparable performance for LeNet architectures on MNIST, and significantly higher parameter compression than state-of-the-art algorithms for VGG and ResNet architectures."
"We propose an iterative pruning strategy introducing a simple importance-score metric that deactivates unimportant connections, tackling overparameterization in DNNs."