Core Concepts
ResNet-50 모델의 합성곱 커널을 다양한 방식으로 압축하더라도 이미지 분류 성능이 크게 저하되지 않는다. 이는 합성곱 커널 내부의 상관관계 구조가 모델 압축에 유리하게 작용하기 때문이다.
Abstract
이 연구는 ResNet-50 모델을 CIFAR-10 및 CIFAR-100 데이터셋에 대해 학습시킨 후, 모델의 합성곱 커널을 다양한 방식으로 압축하여 분류 성능의 변화를 관찰하였다.
주요 결과는 다음과 같다:
단일 모드 및 다중 모드 SVD 기반 압축을 통해 합성곱 커널의 노름을 크게 줄일 수 있었지만, 분류 성능은 크게 저하되지 않았다. 이는 합성곱 커널 내부의 상관관계 구조가 압축에 유리하게 작용하기 때문으로 보인다.
압축의 영향은 모델의 초기 층에서 더 크게 나타났다. 하지만 압축된 모델을 몇 epoch만 재학습하면 원래 성능을 회복할 수 있었다.
CP 분해 기반 압축 또한 성능 저하 없이 모델을 압축할 수 있었다.
이 결과는 합성곱 신경망 모델을 효과적으로 압축할 수 있는 방법을 제시한다. 모델 압축 기법 개발에 활용될 수 있을 것으로 기대된다.
Stats
합성곱 커널의 노름 감소율은 최대 90%까지 달성할 수 있었다.
압축 후에도 CIFAR-10에서 최대 1.5%, CIFAR-100에서 최대 3.5%의 정확도 저하만 관찰되었다.
Quotes
"합성곱 커널의 상관관계 구조가 압축에 유리하게 작용한다."
"압축된 모델을 몇 epoch만 재학습하면 원래 성능을 회복할 수 있었다."