Core Concepts
既存のDeep Neural Network(DNN)を最適化して、ハードウェア利用率を向上させ、リソース制約のあるエッジ環境でのオンデバイストレーニングを容易にすることが可能です。
Abstract
著者らはXceptionに効果的なパラメータ削減戦略を実装し、Caltech-101画像分類およびPCB欠陥検出の2つの実験でモデルを評価しました。
Caltech-101画像分類では、提案されたモデルがXceptionよりも優れたテスト精度(76.21%)を示し、平均メモリ使用量が低いことが示されました。
PCB欠陥検出では、提案されたモデルが他のベースラインモデルよりも最高のテスト精度(90.30%)を持ち、平均メモリ使用量も低かったです。
エッジAIへの関心
ネットワーク設計やトレーニング方法における新しいアプローチはエッジAI開発にどう影響するか?
クラウドとエッジコンピューティング間でMLモデルを展開する際に生じる課題は何か?
プレトレーニングされた重み付けがエッジデバイス上でトレーニング時のメモリ消費量に及ぼす影響は?
Stats
我々の提案したモデルはCaltech-101画像分類で76.21%のテスト精度を達成しました。
Xceptionは874.6MB、我々の提案したモデルは847.9MBという平均メモリ使用量を示しました。
Quotes
"Can deep learning models be optimized to facilitate training at the edge with limited resources while maintaining high accuracy with less resource consumption?" - 論文内から