Temel Kavramlar
본 논문은 구조화된 희소 텐서 분해(TASD)를 통해 어떤 희소 텐서도 효율적으로 가속할 수 있는 방법을 제안한다. TASD는 선형대수의 분배 속성을 활용하여 희소 텐서를 일련의 구조화된 희소 텐서로 근사화한다. 이를 통해 하드웨어 설계자는 구조화된 희소 지원만으로도 다양한 희소 신경망 모델을 가속할 수 있다.
Özet
본 논문은 희소 신경망 가속을 위한 새로운 접근법인 구조화된 희소 텐서 분해(TASD)를 제안한다. TASD는 선형대수의 분배 속성을 활용하여 어떤 희소 텐서도 일련의 구조화된 희소 텐서로 근사화할 수 있다. 이를 통해 하드웨어 설계자는 구조화된 희소 지원만으로도 다양한 희소 신경망 모델을 가속할 수 있다.
논문은 다음과 같이 구성된다:
- TASD 개요: TASD는 임의의 희소 텐서를 구조화된 희소 텐서의 합으로 근사화한다. 이를 통해 구조화된 희소 하드웨어로 다양한 희소 신경망 모델을 가속할 수 있다.
- TASDER 프레임워크: TASDER는 TASD 구성을 자동으로 찾아 신경망 모델을 변환하여 구조화된 희소 하드웨어로 가속한다.
- TASD 하드웨어 지원: 논문은 TASD를 효율적으로 실행할 수 있도록 기존 구조화된 희소 하드웨어를 확장하는 방법을 제안한다.
- 실험 결과: 다양한 신경망 모델에 대해 TASD를 적용한 결과, 최대 83%의 에너지-지연 곱 개선 효과를 보였다.
İstatistikler
희소 ResNet50 모델에서 L1 레이어의 계산량이 40% 감소했다.
희소 BERT 모델에서 L2 레이어의 계산량이 60% 감소했다.
전체적으로 ResNet50과 BERT 모델의 계산량이 평균 40% 감소했다.
Alıntılar
"TASD는 선형대수의 분배 속성을 활용하여 어떤 희소 텐서도 일련의 구조화된 희소 텐서로 근사화할 수 있다."
"TASDER는 TASD 구성을 자동으로 찾아 신경망 모델을 변환하여 구조화된 희소 하드웨어로 가속한다."