Der Artikel stellt ein neues Aufmerksamkeitsmodul namens Projected-Full Attention (PFA) vor, das für Spiking-Neuronale-Netzwerke (SNNs) entwickelt wurde. Im Gegensatz zu früheren Methoden, die auf Rang-1-Aufmerksamkeitskarten beschränkt sind, kann PFA Aufmerksamkeitskarten mit flexibler Rangzahl erzeugen. PFA besteht aus zwei Untermodulen: Linear Projection of Spike Tensor (LPST) und Attention Map Composing (AMC).
LPST komprimiert den Eingangstensor in drei projizierte Tensoren mit lernbaren Parametern für jede Dimension. AMC nutzt dann den inversen Prozess der Tensor-Zerlegung, um die drei Tensoren zu einer Aufmerksamkeitskarte zu kombinieren. Der Rang der Aufmerksamkeitskarte wird durch einen Verbindungsfaktor R gesteuert, der an die Aufgabe angepasst werden kann.
Die theoretische Analyse zeigt, dass ein zu großer Wert für R die Leistung beeinträchtigen kann, da eine zu genaue Darstellung des Eingangstensors der Aufmerksamkeitsmechanik abträglich sein kann. Daher wird empfohlen, R für dynamische Datensätze auf etwa T/2 und für statische Datensätze auf kleine Werte zu setzen.
Die Experimente zeigen, dass PFA den Stand der Technik auf sowohl statischen als auch dynamischen Benchmarkdatensätzen übertrifft. Außerdem wird PFA in Bildgenerierungsaufgaben integriert, wo es ebenfalls überzeugende Ergebnisse liefert.
Başka Bir Dile
kaynak içeriğinden
arxiv.org
Önemli Bilgiler Şuradan Elde Edildi
by Haoyu Deng,R... : arxiv.org 04-12-2024
https://arxiv.org/pdf/2310.14576.pdfDaha Derin Sorular