Core Concepts
자원 제한적 엣지 환경에서 훈련을 용이하게 하기 위해 기존 딥 신경망 모델을 최적화하여 높은 정확도와 낮은 자원 소비를 달성함.
Abstract
이 논문은 자원 제한적 엣지 환경에서의 훈련을 용이하게 하기 위해 기존 딥 신경망 모델을 최적화하는 방법을 제안한다. 기존 Xception 모델을 기반으로 하여 매개변수 감소 전략을 적용하였다. 이를 통해 모델 크기를 줄이면서도 정확도를 유지할 수 있었다.
두 가지 실험을 통해 모델 성능을 평가하였다. Caltech-101 이미지 분류 실험에서 제안 모델은 Xception 모델보다 더 높은 테스트 정확도(76.21%)를 보였으며, 평균 메모리 사용량도 더 낮았다(847.9MB). 또한 훈련 및 추론 시간도 더 빨랐다. 반면 경량 모델인 EfficientNetV2B1과 MobileNetV2는 과적합 현상을 보였다.
PCB 결함 탐지 실험에서도 제안 모델이 가장 높은 테스트 정확도(90.30%)를 보였다. MobileNetV2가 가장 낮은 평균 메모리 사용량(849.4MB)을 보였지만, 제안 모델(865.8MB)도 Xception(893.6MB)보다 낮은 메모리 사용량을 보였다.
전이 학습을 적용한 경우, 모든 모델의 메모리 사용량이 감소하였다. 하지만 정확도는 일부 모델에서 감소하였는데, 이는 소스 과제와 타겟 과제 간의 차이로 인한 부정적 전이 학습 때문으로 보인다.
종합적으로 볼 때, 제안 모델은 정확도와 메모리 사용량 측면에서 파레토 최적성을 달성하였다. 이는 기존 모델 최적화 기법을 활용하여 자원 제한적 환경에서의 훈련 성능을 개선할 수 있음을 보여준다.
Stats
제안 모델의 Caltech-101 테스트 정확도는 76.21%로 Xception 모델(75.89%)보다 높음.
제안 모델의 Caltech-101 평균 메모리 사용량은 847.9MB로 Xception 모델(874.6MB)보다 낮음.
제안 모델의 PCB 결함 탐지 테스트 정확도는 90.30%로 Xception 모델(88.10%)보다 높음.
제안 모델의 PCB 결함 탐지 평균 메모리 사용량은 865.8MB로 Xception 모델(893.6MB)보다 낮음.
Quotes
"Can deep learning models be optimized to facilitate training at the edge with limited resources while maintaining high accuracy with less resource consumption?"
"Our model is Pareto-optimal as it achieves both high accuracy and low memory utilization as its objectives."