Durch eine patch-basierte Inferenz-Planung können wir den Spitzenspeicherverbrauch bestehender Netzwerke um das 4-8-Fache reduzieren, ohne die Genauigkeit zu beeinträchtigen. Durch die gemeinsame Optimierung von Netzwerkarchitektur und Inferenz-Planung erreicht MCUNetV2 einen Rekord an Genauigkeit für Bildklassifizierung und Objekterkennung auf Mikrocontrollern.
パッチベースの推論スケジューリングを提案し、既存のネットワークのピークメモリ使用量を4-8倍削減することで、マイクロコントローラ上での深層学習アプリケーションの実行を可能にする。
Patch-based inference scheduling can significantly reduce the peak memory usage of convolutional neural networks by up to 8x, enabling larger input resolutions and model capacities on microcontrollers.