QKFormer introduces a novel hierarchical spiking transformer based on Q-K attention, achieving groundbreaking performance on ImageNet-1k.
QKFormerは、Q-Kアテンションを使用した階層型スパイキングトランスフォーマーであり、SNNモデルの性能を大幅に向上させます。