이 논문은 스파이킹 신경망(SNN)에서 자기 주의 메커니즘과 트랜스포머 기반 아키텍처를 도입하는 방법을 제안한다.
기존 방법들은 스파이킹 자기 주의 메커니즘을 제안했지만 적절한 스케일링 방법이 부족하고 전체 아키텍처에서 지역 특징 추출에 병목이 발생하는 문제가 있었다.
이를 해결하기 위해 이 논문에서는 Dual Spike Self-Attention (DSSA)라는 새로운 스파이킹 자기 주의 메커니즘을 제안한다. DSSA는 Dual Spike Transformation을 통해 스파이킹 자기 주의를 생성하며, 적절한 스케일링 방법을 사용한다.
DSSA를 기반으로 SpikingResformer라는 새로운 스파이킹 비전 트랜스포머 아키텍처를 제안한다. SpikingResformer는 ResNet 기반의 다단계 아키텍처와 DSSA를 결합하여 성능과 에너지 효율을 높이면서 파라미터 수를 줄였다.
실험 결과, SpikingResformer는 다른 스파이킹 비전 트랜스포머 모델보다 더 높은 정확도, 더 적은 파라미터, 더 낮은 에너지 소비를 달성했다. 특히 SpikingResformer-L은 ImageNet에서 79.40%의 최고 정확도를 달성하여 SNN 분야의 최신 기록을 세웠다.
Til et andet sprog
fra kildeindhold
arxiv.org
Vigtigste indsigter udtrukket fra
by Xinyu Shi,Ze... kl. arxiv.org 03-22-2024
https://arxiv.org/pdf/2403.14302.pdfDybere Forespørgsler