核心概念
本論文では、バイナリ畳み込みとFixed-Point畳み込みを組み合わせた新しい建築ブロック「Blend module」を提案し、これを用いてBlendNetアーキテクチャを構築する。BlendNetは、ResNetやMLPMixerなどの既存のビジョンモデルを改良したものであり、高精度かつ低消費電力な推論を実現する。
要約
本論文では、バイナリ畳み込みと固定小数点畳み込みを組み合わせた新しい建築ブロック「Blend module」を提案している。Blend moduleは、メインパスでバイナリ畳み込みを、スキップパスで固定小数点畳み込みを行う。また、メインパスとスキップパスの両方にバッチ正規化層を配置することで、精度の向上を図っている。
提案手法を用いて、ResNet-20やMLPMixerなどの既存のビジョンモデルを改良したBlendNetを開発した。BlendNet-20はCIFAR-10データセットで88.0%の分類精度を達成し、従来の最先端バイナリニューラルネットワークよりも0.8%高い精度を実現している。また、処理速度も1.4倍高速化できている。
さらに、BlendNetモデルをFPGA上に効率的にマッピングするためのコンパイラを開発した。コンパイラは、畳み込み層とバッチ正規化層の融合などの最適化を行い、エンドツーエンドの推論遅延を最小化している。
FPGA実装の評価では、DSPブロックの再構成可能性を活用することで、低消費電力化を実現できることを示した。提案手法は従来手法と比べて2.5倍の電力削減を達成している。
統計
BlendNet-20は、CIFAR-10データセットで88.0%の分類精度を達成し、従来の最先端バイナリニューラルネットワークよりも0.8%高い精度を実現している。
BlendNet-20は、従来手法と比べて1.4倍高速な処理速度を実現している。
FPGA実装では、従来手法と比べて2.5倍の電力削減を達成している。
引用
"BlendNet-20, derived from ResNet-20 trained on the CIFAR-10 dataset, achieves 88.0% classification accuracy (0.8% higher than the state-of-the-art binary neural network) while it only takes 0.38ms to process each image (1.4x faster than state-of-the-art)."
"Our measurements show that the proposed implementation yields 2.5x lower power consumption."