Der Artikel präsentiert eine neue Spiking-Neuronale-Netzwerk-Architektur namens SpikingResformer, die die Vorteile von ResNet-basierten Architekturen und Transformer-Strukturen kombiniert.
Zunächst wird ein neuartiger Dual Spike Self-Attention (DSSA) Mechanismus eingeführt, der vollständig spike-basiert ist und mit Spiking-Neuronalen-Netzwerken kompatibel ist. DSSA erzeugt die Selbstaufmerksamkeit über eine Dual Spike Transformation, die ohne direkte Spike-Multiplikationen auskommt.
Basierend auf DSSA wird dann die SpikingResformer-Architektur vorgestellt. Sie kombiniert das mehrstufige ResNet-Design mit dem vorgeschlagenen DSSA-Mechanismus. Dadurch werden sowohl die lokale als auch die globale Merkmalsextraktion effektiv unterstützt.
Die experimentellen Ergebnisse zeigen, dass SpikingResformer im Vergleich zu anderen Spiking-Transformer-Architekturen eine höhere Genauigkeit bei gleichzeitig geringerem Energieverbrauch und weniger Parametern erreicht. Insbesondere erzielt die SpikingResformer-L-Variante 79,40% Top-1-Genauigkeit auf ImageNet, was den aktuellen Stand der Technik im Bereich der Spiking-Neuronalen-Netzwerke darstellt.
To Another Language
from source content
arxiv.org
ข้อมูลเชิงลึกที่สำคัญจาก
by Xinyu Shi,Ze... ที่ arxiv.org 03-22-2024
https://arxiv.org/pdf/2403.14302.pdfสอบถามเพิ่มเติม