Spiking-Neuronale-Netzwerke (SNNs) können die gleiche Ausdrucksfähigkeit wie künstliche neuronale Netzwerke (ANNs) mit stückweise linearer Aktivierung erreichen, weisen aber auch einzigartige Eigenschaften auf, wie die Fähigkeit, diskontinuierliche Funktionen darzustellen. Darüber hinaus können SNNs mit weniger Recheneinheiten und Schichten komplexe stückweise lineare Funktionen realisieren.
Das vorgeschlagene Projected-Full Attention (PFA)-Modul kann Aufmerksamkeitskarten mit einer flexiblen Rangzahl erzeugen, im Gegensatz zu früheren Methoden, die auf Rang-1-Aufmerksamkeitskarten beschränkt sind. Außerdem wächst die Parameteranzahl von PFA linear mit der Datenskala und der Rechenaufwand entspricht dem einer einzelnen Standard-Konvolutionsschicht.