Core Concepts
SNNへの高精度かつ低遅延なアプローチを提案する。
Abstract
SNNは非同期離散イベントで動作し、スパースな計算で高いエネルギー効率を示す。
ANN-SNN変換はトレーニングと推論の両方を効率的に組み合わせる方法。
本研究では、ANN-SNN変換の誤差を3つに分解し、それぞれ最小化する2段階のアルゴリズムを提案。
CIFAR-10、CIFAR-100、ImageNetなどのデータセットで評価され、提案手法が精度、遅延、エネルギー保存の面で最先端の性能を実証。
Stats
SNNは指定されたニューロモーフィックプロセッサ上でANNよりもはるかに低いエネルギー消費と遅延を実現可能。
提案手法は16タイムステップ以下の超低遅延下で既存のスパイクベース検出アルゴリズムと比較して顕著な回帰性能向上を示す。
Quotes
"Spiking neural networks (SNNs) operating with asynchronous discrete events show higher energy efficiency with sparse computation."
"We propose a two-stage conversion algorithm to minimize quantization error, clipping error, and residual membrane potential representation error."