Core Concepts
밀집 연결 합성곱 신경망(DenseNet)의 잠재력이 과소평가되었으며, 적절한 훈련 방법과 아키텍처 개선을 통해 현대 신경망 모델들을 능가할 수 있다.
Abstract
이 논문은 밀집 연결 합성곱 신경망(DenseNet)의 잠재력을 재조명하고 있다. DenseNet은 기존 ResNet 계열 모델들과 달리 합산 shortcuts 대신 연결 shortcuts을 사용하여 특징 재사용을 가능하게 했지만, 훈련 방법과 아키텍처 설계의 한계로 인해 점차 인기가 줄어들었다.
저자들은 DenseNet의 핵심 설계 개념인 연결 shortcuts이 여전히 강력한 성능을 발휘할 수 있다고 주장한다. 이를 검증하기 위해 다양한 규모의 랜덤 네트워크 실험을 수행했고, 연결 shortcuts이 합산 shortcuts보다 우수한 성능을 보인다는 것을 확인했다.
이를 바탕으로 저자들은 DenseNet 아키텍처를 개선하여 메모리 효율성을 높이고 폭을 늘리는 동시에 연결 shortcuts의 핵심을 유지하는 RDNet 모델을 제안했다. RDNet은 Swin Transformer, ConvNeXt, DeiT-III 등 최신 모델들을 능가하는 성능을 보였으며, ImageNet-1K, ADE20K 의미 분할, COCO 객체 탐지/인스턴스 분할 등 다양한 작업에서 경쟁력 있는 결과를 달성했다. 또한 저자들은 연결 shortcuts의 장점을 실증적으로 분석하여 DenseNet 스타일 설계에 대한 선호도를 높였다.
Stats
제안한 RDNet-T 모델은 ResNet-50 대비 약 2.4배 빠른 추론 속도와 약 2배 낮은 메모리 사용량을 보였다.
RDNet-S 모델은 Swin-T, ConvNeXt-T 모델과 유사한 정확도를 보이면서도 약 2배 빠른 추론 속도를 달성했다.
RDNet-B 모델은 Swin-B, ConvNeXt-B 모델을 능가하는 정확도와 효율성을 보였다.
Quotes
"밀집 연결을 통한 특징 재사용은 매개변수 효율성과 향상된 정확도를 보여주었다."
"우리는 연결 shortcuts이 여전히 강력한 성능을 발휘할 수 있다고 주장한다."
"제안한 RDNet 모델은 Swin Transformer, ConvNeXt, DeiT-III 등 최신 모델들을 능가하는 성능을 보였다."