Core Concepts
ニューロモーフィックハードウェアで高性能なスパイキングニューラルネットワークモデルを実現するため、シナプス重みだけでなくシナプス遅延も共同最適化する手法を提案する。
Abstract
本研究では、デジタルニューロモーフィックハードウェアで高性能なスパイキングニューラルネットワーク(SNN)モデルを実現するための手法を提案している。
モデルのパラメータとして、シナプス重みだけでなくシナプス遅延も共同最適化する。
ハードウェアの制約(重み精度、パラメータ数など)を考慮しながら、スパイクベースのバックプロパゲーションを用いてモデルをトレーニングする。
シナプス遅延の削減手法を用いて、メモリフットプリントを低減する。
Intel Loihi とImec Senecaの2つのデジタルニューロモーフィックハードウェアプラットフォームでモデルを評価した。
Loihi ではリングバッファ構造を、Senecaでは新たに提案した共有遅延キュー(SCDQ)構造を用いてシナプス遅延を実装した。
SHD(Spiking Heidelberg Digits)分類タスクのベンチマークで、ソフトウェアからハードウェアへの移行時の精度劣化を最小限に抑えることができた。
Stats
入力層700ニューロン、隠れ層48ニューロン、出力層20ニューロンのモデルでは、ハードウェア上の推論時の消費エネルギーが28.4μJであった。
入力層700ニューロン、隠れ層24ニューロン、出力層20ニューロンのモデルでは、ハードウェア上の推論時の消費エネルギーが12.5μJであった。
Senecaプラットフォームでは、ハードウェアによる遅延加速回路(SCDQ)の追加により、消費エネルギーが3.1倍~3.5倍、推論レイテンシが3.5倍~4.3倍改善された。
Quotes
"シナプス遅延は生物学的なニューラルネットワークにおいて学習の対象となり、時間変形の役割を果たすことが知られている。"
"最近になって、バックプロパゲーションを用いてこのような遅延モデルをトレーニングする新しいアプローチが登場し、有望な結果を示している。"
"遅延モデルは、他のモデル(スパイキングか非スパイキングか)と比べて競争力のある、しばしば優れた性能を達成し、平均して小さいモデルサイズを持つ傾向がある。"