Core Concepts
提案されたSpikingResformerは、ResNetとVision Transformerを組み合わせ、SNNの性能とエネルギー効率を向上させます。
Abstract
SpikingResformerは、Dual Spike Self-Attention(DSSA)メカニズムを導入し、他のSNNに比べて優れた性能を実現します。
DSSAはスパイク駆動型であり、SNNに適したスケーリング方法を提供します。
SpikingResformerはImageNetで高い精度を達成し、他の既存手法よりも少ないパラメータと低いエネルギー消費量で動作します。
Introduction
SNNs offer advantages like low power consumption and biological plausibility.
Existing SNNs lag behind ANNs in performance on challenging vision tasks.
Dual Spike Self-Attention (DSSA)
DSSA eliminates float-point operations, making it compatible with SNNs.
Proper scaling factors in DSSA enable handling of feature maps of arbitrary scales.
SpikingResformer Architecture
Combines ResNet-based multi-stage design with DSSA for improved performance.
Achieves higher accuracy with fewer parameters and lower energy consumption.
Experiments
SpikingResformer outperforms existing methods on ImageNet classification tasks.
Transfer learning results show superior performance on CIFAR10 and CIFAR100 datasets.
Stats
DSSAは完全にスパイク駆動型であることが示されています。
SpikingResformer-LはImageNetで79.40%のトップ1精度を達成しています。