Hochleistungsfähiger hierarchischer Spiking-Transformer mit Q-K-Aufmerksamkeit für direkte Trainingsverfahren
Ein neuartiger hierarchischer Spiking-Transformer mit Q-K-Aufmerksamkeit, der eine effiziente Modellierung der Wichtigkeit von Token- oder Kanaldimensionen ermöglicht und eine überlegene Leistung auf verschiedenen Datensätzen erzielt.