Khái niệm cốt lõi
本論文では、ベイジアンバイナリニューラルネットワーク(BBNN)のスパース性を利用した、メモリ内コンピューティング(IMC)アクセラレータの最適化手法を提案する。
本論文は、ベイジアンバイナリニューラルネットワーク(BBNN)のスパース性を利用した、メモリ内コンピューティング(IMC)アクセラレータの最適化手法を提案する研究論文である。
研究目的
BBNNの推論プロセスにおける、アンサンブル処理によるエネルギー消費と面積増加の問題に対処する。
BBNNに固有のスパース性を利用することで、ハードウェア効率を向上させる。
手法
ネットワーク内のスパース性を利用した2つの最適化スキームを提案:
レイヤースパース性(LS):ネットワークの深い層のみをサンプリングする。
レイヤースパース性+ロースパース性(LS+RS):確率的なシナプスを持つ行のみをサンプリングする。
PCMデバイスを用いたIMCアーキテクチャを採用し、NeuroSIMシミュレータを用いてハードウェア性能を評価する。
結果
CIFAR-100データセットを用いた実験の結果、提案手法はFP32ベースラインと同等の精度を維持しながら、ハードウェア効率を大幅に向上させることを示した。
LSのみの場合、非スパース性認識実装と比較して、面積を最大5.3倍、電力効率を8.8倍、全体効率を12.5倍向上させた。
LS+RSの場合、非スパース性認識実装と比較して、面積を最大45倍、電力効率を37倍、全体効率を45倍向上させた。
提案手法は、最先端のBBNNアクセラレータと比較して2.9倍の電力効率を実現した。
結論
BBNNのスパース性を利用することで、ハードウェア効率を大幅に向上させることができる。
提案されたLSおよびLS+RSスキームは、あらゆる畳み込み型またはその他のBBNN実装に適応可能である。
意義
本研究は、エネルギー効率の高い信頼性の高いAIエッジシステムを実現するための重要な貢献である。
提案された最適化手法は、BBNNのより広範な採用と、リソース制約のあるデバイスへの展開を促進する可能性がある。
制限と今後の研究
本研究では、特定のBBNNアーキテクチャとデータセットのみを評価した。
今後の研究では、より大規模で複雑なネットワークにおける提案手法の有効性を評価する必要がある。
さらに、他のタイプのメモリデバイスを用いた実装についても検討する必要がある。
Thống kê
ネットワーク内の決定論的シナプスの数は、確率的シナプスの数よりもはるかに多い(nd ≫ np)。
CIFAR-100で学習したVGGBinaryConnectの場合、7番目の層が最初のアンサンブル層(FEL)として選択された。
サブマトリックス内のゼロ以外の行の割合(fp)が0.1の場合、10個のアンサンブルを1つのサブアレイに収めることができる。
128×128のサブアレイサイズが、エネルギー遅延積(EDP)とレイテンシエネルギー面積積(LEAP)の両方の観点から最適であることがわかった。
LSのみのモードでは、電力効率が8.8倍、総効率が12.5倍向上した。
LS+RSモードでは、電力効率が8.8倍、総効率が45倍向上した。