本論文では、ビジョントランスフォーマー(ViT)の高計算コストと大メモリ使用量を解決するため、新しいグラフ認識型のニューロンレベルの畳み込み手法「Structured Neuron-level Pruning (SNP)」を提案している。
SNPは以下の2つの基準に基づいて畳み込みを行う:
さらに、SNPは畳み込む際に、グラフィカルに接続された層の同一のフィルタインデックスを一括して削除することで、様々なデバイスでの高速化を実現している。
提案手法のSNPは、DeiTやEfficientFormerなどのトランスフォーマーモデルを大幅に圧縮・高速化できることを示している。例えば、DeiT-Smallをデバイス上で3.1倍高速化しつつ、DeiT-Tinyよりも21.94%高速で1.12%高精度を達成している。また、SNPはヘッド畳み込みなどの従来手法と組み合わせることで、DeiT-Baseを80%圧縮しつつ、RTX3090で3.85倍、Jetson Nanoで4.93倍の高速化を実現している。
לשפה אחרת
מתוכן המקור
arxiv.org
תובנות מפתח מזוקקות מ:
by Kyunghwan Sh... ב- arxiv.org 04-19-2024
https://arxiv.org/pdf/2404.11630.pdfשאלות מעמיקות