核心概念
Das vorgeschlagene Projected-Full Attention (PFA)-Modul kann Aufmerksamkeitskarten mit einer flexiblen Rangzahl erzeugen, im Gegensatz zu früheren Methoden, die auf Rang-1-Aufmerksamkeitskarten beschränkt sind. Außerdem wächst die Parameteranzahl von PFA linear mit der Datenskala und der Rechenaufwand entspricht dem einer einzelnen Standard-Konvolutionsschicht.
要約
Der Artikel stellt ein neues Aufmerksamkeitsmodul namens Projected-Full Attention (PFA) vor, das für Spiking-Neuronale-Netzwerke (SNNs) entwickelt wurde. Im Gegensatz zu früheren Methoden, die auf Rang-1-Aufmerksamkeitskarten beschränkt sind, kann PFA Aufmerksamkeitskarten mit flexibler Rangzahl erzeugen. PFA besteht aus zwei Untermodulen: Linear Projection of Spike Tensor (LPST) und Attention Map Composing (AMC).
LPST komprimiert den Eingangstensor in drei projizierte Tensoren mit lernbaren Parametern für jede Dimension. AMC nutzt dann den inversen Prozess der Tensor-Zerlegung, um die drei Tensoren zu einer Aufmerksamkeitskarte zu kombinieren. Der Rang der Aufmerksamkeitskarte wird durch einen Verbindungsfaktor R gesteuert, der an die Aufgabe angepasst werden kann.
Die theoretische Analyse zeigt, dass ein zu großer Wert für R die Leistung beeinträchtigen kann, da eine zu genaue Darstellung des Eingangstensors der Aufmerksamkeitsmechanik abträglich sein kann. Daher wird empfohlen, R für dynamische Datensätze auf etwa T/2 und für statische Datensätze auf kleine Werte zu setzen.
Die Experimente zeigen, dass PFA den Stand der Technik auf sowohl statischen als auch dynamischen Benchmarkdatensätzen übertrifft. Außerdem wird PFA in Bildgenerierungsaufgaben integriert, wo es ebenfalls überzeugende Ergebnisse liefert.
統計
Die Genauigkeit von PFA auf CIFAR10 beträgt 95,7% bei 6 Zeitschritten, was eine Verbesserung von 1,2% gegenüber der TET-Methode [8] ist.
Die Genauigkeit von PFA auf CIFAR100 beträgt 79,1% bei 6 Zeitschritten, was eine Verbesserung von 4,4% gegenüber der TET-Methode [8] ist.
PFA erreicht auf dem CIFAR10DVS-Datensatz eine Genauigkeit von 84,0% bei 14 Zeitschritten, was eine Verbesserung von 3,1% gegenüber vorherigen Methoden ist.
Auf dem NCaltech-101-Datensatz erreicht PFA eine Genauigkeit von 80,5%, was eine Verbesserung von 2% gegenüber der vorherigen besten Methode TCJA [70] ist.
引用
"Das vorgeschlagene PFA-Modul kann Aufmerksamkeitskarten mit einer flexiblen Rangzahl erzeugen, im Gegensatz zu früheren Methoden, die auf Rang-1-Aufmerksamkeitskarten beschränkt sind."
"Der Rang der Aufmerksamkeitskarte wird durch einen Verbindungsfaktor R gesteuert, der an die Aufgabe angepasst werden kann."
"Ein zu großer Wert für R kann die Leistung beeinträchtigen, da eine zu genaue Darstellung des Eingangstensors der Aufmerksamkeitsmechanik abträglich sein kann."