Core Concepts
자원 제한적 엣지 환경에서 훈련을 용이하게 하기 위해 기존 딥 신경망 모델을 최적화하여 높은 정확도와 낮은 자원 소비를 달성하였다.
Abstract
이 논문은 자원 제한적 엣지 환경에서 훈련을 용이하게 하기 위해 기존 딥 신경망 모델을 최적화하는 방법을 제안한다. 기존 Xception 모델을 기반으로 하여, 모델 크기를 줄이면서도 정확도를 유지할 수 있는 효율적인 매개변수 감소 전략을 적용하였다.
실험 1에서는 Caltech-101 이미지 분류 작업을 수행하였다. 결과적으로 제안한 모델은 Xception 모델보다 더 높은 테스트 정확도(76.21%)를 보였으며, 평균 메모리 사용량(847.9MB)도 Xception(874.6MB)보다 낮았다. 또한 훈련 및 추론 시간도 더 빨랐다. 반면 경량 모델인 EfficientNetV2B1과 MobileNetV2는 과적합 현상을 보였다.
실험 2에서는 PCB 결함 탐지 작업을 수행하였다. 제안한 모델이 가장 높은 테스트 정확도(90.30%)를 보였고, 메모리 사용량도 Xception보다 낮았다.
추가로 사전 학습된 모델을 활용하여 메모리 사용량을 더 줄일 수 있음을 확인하였다. 이를 통해 제안한 모델 최적화 기법이 자원 제한적 엣지 환경에서의 훈련 성능 향상에 효과적임을 보였다.
Stats
Caltech-101 실험에서 제안 모델의 평균 메모리 사용량은 847.9MB로 Xception의 874.6MB보다 낮았다.
PCB 결함 탐지 실험에서 제안 모델의 평균 메모리 사용량은 865.8MB로 Xception의 893.6MB보다 낮았다.
Quotes
"자원 제한적 엣지 환경에서 훈련을 용이하게 하기 위해 기존 딥 신경망 모델을 최적화하여 높은 정확도와 낮은 자원 소비를 달성하였다."
"제안한 모델 최적화 기법이 자원 제한적 엣지 환경에서의 훈련 성능 향상에 효과적임을 보였다."