核心概念
활성화 함수 압축을 통해 메모리 사용량을 줄이면서도 정확도 유지가 가능하다.
摘要
이 연구에서는 심층 신경망(DNN)의 메모리 사용량 문제를 해결하기 위해 활성화 함수 압축 기법을 제안한다.
- DNN의 규모가 커짐에 따라 메모리 사용량도 급격히 증가하는데, 특히 역전파 과정에서 저장해야 하는 중간 활성화 함수가 대부분을 차지한다.
- 이를 해결하기 위해 평균 풀링을 사용하여 활성화 함수를 압축하는 방법을 제안한다. 이를 통해 추가적인 인코딩 없이도 메모리 사용량을 크게 줄일 수 있다.
- ResNet18 모델을 이용한 실험 결과, (2x2) 압축으로 전체 메모리 사용량을 29% 줄일 수 있었고, 정확도 저하를 최소화하기 위해 학습 epoch을 늘리면 기준 모델 대비 1.3% 이내의 성능 저하만 있었다.
- 향후 다양한 CNN 및 Transformer 모델에 대한 실험과 압축 기법의 확장을 계획하고 있다.
統計資料
ResNet18 모델에서 (2x2) 압축으로 전체 메모리 사용량을 29% 줄일 수 있었다.
(4x4) 압축의 경우 정확도 저하가 크지만, (2x2) 압축에서는 학습 epoch을 늘려 기준 모델 대비 1.3% 이내의 성능 저하만 있었다.
引述
"활성화 함수는 전체 메모리 사용량의 평균 91.8%를 차지한다."
"압축된 활성화 함수를 사용하더라도 손실 함수 계산과 역전파 과정의 정확도는 유지된다."