核心概念
RL-Pruner是一種基於強化學習的結構化剪枝方法,可以自動學習CNN模型中各層的最佳稀疏度分佈,從而實現模型壓縮和加速,同時最大程度地減少性能損失。
論文概述
本研究論文介紹了一種名為 RL-Pruner 的新型方法,用於壓縮和加速卷積神經網絡 (CNN)。RL-Pruner 是一種後訓練結構化剪枝方法,利用強化學習和採樣技術,學習跨越多個剪枝步驟的最佳層級稀疏度分佈。
研究背景
CNN 在各種計算機視覺任務中表現出色,但其龐大的參數量導致計算成本高昂,且在邊緣設備上的部署也面臨挑戰。為了解決這些問題,CNN 壓縮技術應運而生,結構化剪枝作為其中一種主要方法,通過移除層級過濾器來直接修改模型架構,從而實現壓縮和加速。
研究方法
RL-Pruner 的核心思想是基於不同層級的過濾器對模型性能的重要性不同,通過學習最佳的稀疏度分佈,將更高的過濾器稀疏度分配給不太重要的層級,而將較低的稀疏度分配給更重要的層級。
該方法首先構建模型中各層級之間的依賴關係圖,然後分多個步驟執行剪枝。在每個步驟中,RL-Pruner 會根據當前模型架構(狀態)和剪枝稀疏度分佈(策略),生成新的剪枝稀疏度分佈(動作),並使用泰勒準則根據相應的稀疏度對每一層進行剪枝。通過評估壓縮模型的性能(獎勵),RL-Pruner 會更新稀疏度分佈策略,以學習最佳的稀疏度分佈。
實驗結果
研究人員在 CIFAR-10 和 CIFAR-100 數據集上,對 VGGNet、ResNet、GoogLeNet 和 MobileNet 等多種流行 CNN 進行了實驗。結果表明,RL-Pruner 在保持模型性能的同時,實現了顯著的壓縮和加速效果。例如,在 CIFAR-100 數據集上,RL-Pruner 可以將 VGG-19 壓縮至 60% 的通道稀疏度,將 GoogleNet 和 MobileNetV3-Large 壓縮至 40% 的通道稀疏度,且性能下降不到 1%。
研究結論
RL-Pruner 是一種有效的 CNN 壓縮和加速方法,可以自動學習最佳的層級稀疏度分佈,並適用於各種 CNN 架構。該方法為開發高效、可部署的 CNN 模型提供了新的思路,並有望應用於圖像分類、分割等多種計算機視覺任務。
統計資料
VGG-19 在 CIFAR-100 數據集上可以被壓縮至 60% 的通道稀疏度,性能下降不到 1%。
GoogleNet 和 MobileNetV3-Large 在 CIFAR-100 數據集上可以被壓縮至 40% 的通道稀疏度,性能下降不到 1%。