본 연구에서는 단일 스파이크 위상 부호화 기법을 제안하여 SNN의 에너지 효율을 크게 향상시켰다. 기존 위상 부호화 기법은 여러 개의 스파이크를 사용하지만, 제안 기법은 각 뉴런에서 단 하나의 스파이크만 발생하도록 하였다. 이를 통해 스파이크 갱신 연산 횟수를 크게 줄일 수 있어 에너지 효율이 향상된다.
단일 스파이크 근사화로 인한 변환 오차를 최소화하기 위해 두 가지 기법을 제안하였다. 첫째, 문턱값 이동을 통한 반올림 근사화를 적용하였다. 둘째, 기저 Q를 2보다 작은 값으로 조정하여 변환 오차를 줄였다. 이를 통해 추가적인 재학습 없이도 ANN 대비 0.58%의 평균 정확도 손실만으로 SNN으로 변환할 수 있었다.
제안 기법은 CNN과 GCN 모델에 대해 검증되었으며, 기존 대비 4.6~17.3배 향상된 에너지 효율을 달성하였다.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Sangwoo Hwan... at arxiv.org 03-15-2024
https://arxiv.org/pdf/2403.08786.pdfDeeper Inquiries