Grunnleggende konsepter
Eine datengetriebene, schichtweise Ausdünnungsmethode basierend auf der mathematischen Idee einer berechenbaren entropischen Relaxation des Ausdünnungsproblems. Das dünne Teilnetzwerk wird aus dem vortrainierten (vollen) CNN unter Verwendung der Minimierung der Netzwerkentropie als Sparsitätsbeschränkung gefunden.
Sammendrag
Der Artikel führt eine datengetriebene, schichtweise Ausdünnungsmethode für konvolutionale neuronale Netze (CNN) ein, die auf der Minimierung der Netzwerkentropie als Sparsitätsbeschränkung basiert.
Die Kernidee ist, das Ausdünnungsproblem für konvolutionale Schichten als ein sparses, entropisches Regressionsproblem zu interpretieren. Dazu wird jede konvolutionale Schicht als lineare Schicht dargestellt, indem die räumlichen Dimensionen als zusätzliche Datenpunkte behandelt werden. Auf dieser Grundlage wird eine verallgemeinerte lineare Anpassung des SPARTAn-Algorithmus entwickelt, um die Eingabekanäle jeder Schicht sparszuentscheiden.
Die Methode wird auf verschiedenen Benchmarks (MNIST, CIFAR-10) mit Architekturen wie LeNet, VGG-16 und ResNet18 validiert. Für VGG-16 auf CIFAR-10 können 88% der Parameter bei minimalem Genauigkeitsverlust entfernt werden. Für ResNet18 auf CIFAR-10 können 73% der Parameter bei 0,5% Genauigkeitsverlust entfernt werden.
Statistikk
89% der Gewichte von VGG-16 können mit minimalem Genauigkeitsverlust (< 0,1%) auf CIFAR-10 entfernt werden.
73% der Parameter von ResNet18 können mit 0,5% Genauigkeitsverlust auf CIFAR-10 entfernt werden.
Sitater
"Eine datengetriebene, schichtweise Ausdünnungsmethode basierend auf der mathematischen Idee einer berechenbaren entropischen Relaxation des Ausdünnungsproblems."
"Das dünne Teilnetzwerk wird aus dem vortrainierten (vollen) CNN unter Verwendung der Minimierung der Netzwerkentropie als Sparsitätsbeschränkung gefunden."