Kernkonzepte
Der Spiking Wavelet Transformer (SWformer) ist eine neuartige aufmerksamkeitsfreie Architektur, die Frequenzinformationen effizient in Spiking Neural Networks (SNNs) integriert. Dadurch können SNNs hochfrequente visuelle Komponenten effektiv erfassen, was zu einer signifikanten Leistungssteigerung führt.
Zusammenfassung
Der Spiking Wavelet Transformer (SWformer) ist eine innovative Architektur, die Frequenzinformationen in energieeffiziente Spiking Neural Networks (SNNs) integriert.
Kernkomponente ist der Frequency-Aware Token Mixer (FATM), der sich aus drei Zweigen zusammensetzt:
- Spiking Wavelet Learner zur Verarbeitung von Frequenzinformationen
- Konvolutions-basierter Learner zur Extraktion von Ortsmerkmalen
- Spiking Pointwise Convolution zur Aggregation von Kanal-Informationen
Durch diese Kombination kann der SWformer hochfrequente visuelle Komponenten effektiv erfassen, was zu einer deutlichen Leistungssteigerung im Vergleich zu herkömmlichen Spiking Transformers führt.
Darüber hinaus nutzt der SWformer eine neuartige spikebasierte Frequenzrepräsentation, die die Spärlichkeit der Wavelet-Transformation mit den binären Spike-Signalen von SNNs verbindet. Dies ermöglicht eine robuste und recheneffiziente Frequenzverarbeitung.
Umfangreiche Experimente auf statischen und neuromorphen Datensätzen zeigen, dass der SWformer die Leistung von state-of-the-art SNN-Modellen deutlich übertrifft. Er erreicht eine über 50%ige Reduzierung des Energieverbrauchs, eine 21,1%ige Reduzierung der Parameteranzahl und eine 2,40%ige Leistungssteigerung auf dem ImageNet-Datensatz im Vergleich zu herkömmlichen Spiking Transformers.
Statistiken
Der SWformer erreicht eine über 50%ige Reduzierung des Energieverbrauchs im Vergleich zu herkömmlichen Spiking Transformers.
Der SWformer weist eine 21,1%ige Reduzierung der Parameteranzahl auf im Vergleich zu herkömmlichen Spiking Transformers.
Der SWformer erzielt eine 2,40%ige Leistungssteigerung auf dem ImageNet-Datensatz im Vergleich zu herkömmlichen Spiking Transformers.
Zitate
"Der Spiking Wavelet Transformer (SWformer) ist eine neuartige aufmerksamkeitsfreie Architektur, die Frequenzinformationen effizient in Spiking Neural Networks (SNNs) integriert."
"Durch die Kombination von Spiking Wavelet Learner, Konvolutions-basiertem Learner und Spiking Pointwise Convolution kann der SWformer hochfrequente visuelle Komponenten effektiv erfassen, was zu einer deutlichen Leistungssteigerung führt."
"Der SWformer nutzt eine neuartige spikebasierte Frequenzrepräsentation, die die Spärlichkeit der Wavelet-Transformation mit den binären Spike-Signalen von SNNs verbindet, um eine robuste und recheneffiziente Frequenzverarbeitung zu ermöglichen."