본 연구 논문에서는 딥러닝 모델 압축을 위한 새로운 비구조적 가지치기 방법인 **고정 비율 그래디언트 우선 점진적 가지치기(FGGP)**를 제안합니다.
딥러닝 모델의 크기가 증가함에 따라 높은 계산 자원과 에너지 소비가 요구되며, 이는 모델 학습 및 추론 시간 증가, 높은 CO2 배출, 실시간 처리 및 에지 컴퓨팅 적용 제한 등의 문제를 야기합니다. 이러한 문제를 해결하기 위해 모델 압축 기술 중 하나인 가지치기가 주목받고 있습니다.
기존의 점진적 가지치기 방법들은 가중치 크기만을 기준으로 파라미터를 제거하거나, 그래디언트 크기를 고려하더라도 고정되지 않은 비율을 사용하는 등의 한계점을 가지고 있었습니다.
FGGP는 그래디언트 크기를 우선적으로 고려하여 학습 중 중요도가 낮은 파라미터를 점진적으로 제거하는 방법입니다.
CIFAR-10 데이터셋과 ResNet-50, VGG-19 모델을 사용한 실험 결과, FGGP는 기존의 GraNet, RigL 등의 최첨단 가지치기 방법들보다 높은 성능을 보였습니다. 특히, 높은 가지치기 비율(95%, 98%)에서 FGGP의 성능 향상이 두드러졌습니다.
본 연구는 딥러닝 모델 압축을 위한 효과적인 가지치기 방법을 제시하며, 특히 그래디언트 크기와 고정 비율을 기반으로 한 파라미터 선택 기준의 중요성을 강조합니다. FGGP는 딥러닝 모델 경량화를 통해 다양한 분야에서의 활용 가능성을 높일 것으로 기대됩니다.
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문