Concepts de base
경사 샘플링 기법을 활용하여 신경망 가지치기 과정에서 정확도 유지
Résumé
이 연구는 StochGradAdam과 같은 경사 샘플링 최적화 기법을 신경망 가지치기 과정에 통합하여 정확도 유지를 목표로 한다.
- 기존 최적화 기법인 Adam과 비교하여, StochGradAdam을 사용한 모델이 가지치기 전후로 일관되게 더 높은 정확도를 보였다.
- ResNet 56, 110, 152 모델에서 실험을 진행했으며, 다양한 가지치기 비율에서 StochGradAdam의 우수성이 확인되었다.
- 경사 샘플링 기법은 모델의 가중치 분포와 정규화에 긍정적인 영향을 미쳐, 가지치기 과정에서도 핵심 정보를 잘 보존할 수 있게 한다.
- 이를 통해 제한된 계산 자원 환경에서도 효율적이면서도 성능이 우수한 신경망 모델을 개발할 수 있는 방향을 제시한다.
Stats
ResNet 56 모델에서 50% 가지치기 시, StochGradAdam 기반 모델은 62.84%의 정확도를, Adam 기반 모델은 33.12%의 정확도를 보였다.
ResNet 110 모델에서 50% 가지치기 시, StochGradAdam 기반 모델은 76.67%의 정확도를, Adam 기반 모델은 44.85%의 정확도를 보였다.
ResNet 152 모델에서 50% 가지치기 시, StochGradAdam 기반 모델은 76.23%의 정확도를, Adam 기반 모델은 54.67%의 정확도를 보였다.
Citations
"경사 샘플링 기법은 모델의 가중치 분포와 정규화에 긍정적인 영향을 미쳐, 가지치기 과정에서도 핵심 정보를 잘 보존할 수 있게 한다."
"이를 통해 제한된 계산 자원 환경에서도 효율적이면서도 성능이 우수한 신경망 모델을 개발할 수 있는 방향을 제시한다."