Core Concepts
資源制限のあるエッジデバイスに適用可能な高効率な深層学習モデルを開発するために、プルーニング、量子化、知識蒸留といった最適化手法を適用し、分類性能を維持しつつ、モデルサイズと計算コストを大幅に削減することができる。
Abstract
本研究では、無線信号の自動変調分類(AMC)のための深層学習(DL)モデルの最適化に取り組んでいる。AMCは認知無線、信号認識、スペクトル監視などの実用的な応用に不可欠であるが、従来のAMC手法は計算複雑性が高く、設計が困難であった。近年、DLベースのAMC手法が注目されているが、大規模なパラメータ数を持つ過剰パラメータ化されたDLアーキテクチャは、リソース制限のあるエッジデバイスへの実装が困難である。
そこで本研究では、3つの主要な最適化手法、すなわちプルーニング、量子化、知識蒸留を適用し、AMCのためのDLモデルを最適化する。これらの手法を個別に適用するだけでなく、相補的な最適化効果を融合するための2つの組み合わせ手法(蒸留プルーニング、蒸留量子化)も提案している。
実験結果から、提案手法は分類性能を維持しつつ、モデルの複雑性を大幅に削減できることが示された。プルーニングにより最大98%の疎性を達成し、量子化により最大133倍の圧縮率を実現した。また、知識蒸留を組み合わせた手法では、小規模モデルの性能を向上させることができた。これらの最適化された高効率モデルは、リソース制限のあるエッジデバイスへの実装に適している。
Stats
提案手法のプルーニング効率(pe)は、VTCNN2で96.5%、ResNetで98.1%、InceptionNetで98.94%と非常に高い。
量子化による圧縮率(CQ)は、VTCNN2で39.65、ResNetで49.56、InceptionNetで133.20と大幅な圧縮が可能。
知識蒸留を用いた場合、VTCNN2モデルのパラメータ数を0.28倍に削減しつつ、分類精度を向上させることができた。