本論文では、マイクロコントローラ上での深層学習モデル実行における課題であるメモリ使用量の問題に取り組む。
まず、効率的なCNNデザインにおいて、メモリ使用量が極端に偏っていることを分析した。特に初期のブロックが大量のメモリを消費し、全体のピークメモリ使用量を決定している。
そこで、パッチベースの推論スケジューリングを提案した。これにより、初期のメモリ集中ステージでは小領域ごとに処理を行うことで、ピークメモリ使用量を大幅に削減できる。ただし、この方式には計算量の増加という課題がある。
そこで、受容野の再配置を提案し、初期ステージの受容野を小さくすることで、計算量の増加を最小限に抑えた。
最後に、ニューラルネットワークアーキテクチャと推論スケジューリングを共同で最適化するアプローチを提案した。これにより、メモリ制約下でも高精度なモデルを自動的に設計できる。
提案手法MCUNetV2は、ImageNetでマイクロコントローラ上の最高精度を達成し(71.8%)、Visual Wake Wordsデータセットでは32kB未満のSRAMで90%超の精度を実現した。さらに、オブジェクト検出タスクでも大幅な性能向上を示した。本研究は、Tiny Deep Learningの主要な課題であるメモリボトルネックを大幅に改善し、様々なビジョンアプリケーションの実現を可能にした。
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Ji Lin,Wei-M... a las arxiv.org 04-04-2024
https://arxiv.org/pdf/2110.15352.pdfConsultas más profundas