แนวคิดหลัก
본 논문은 다양한 추가 단서를 활용하여 위장 물체를 정확하게 탐지하는 적응형 안내 학습 네트워크를 제안한다.
บทคัดย่อ
이 논문은 위장 물체 탐지(COD)를 위한 적응형 안내 학습 네트워크(AGLNet)를 제안한다. COD는 주변 환경과 매우 유사한 물체를 찾아내는 어려운 과제이다. 대부분의 기존 방법은 특정 보조 단서(경계, 질감, 주파수 등)를 활용하여 특징 학습을 안내하지만, 이는 적응성이 부족하고 일관된 성능을 보이지 못한다.
이에 본 논문은 다음과 같은 기여를 제안한다:
- 다양한 추가 단서를 통합하여 위장 물체 특징 학습을 안내하는 통합 end-to-end 가능 모델을 제안한다.
- 계층적 특징 결합(HFC) 모듈을 통해 추가 단서와 이미지 특징을 다수준에서 깊이 통합하고, 재보정 디코더(RD)를 통해 다중 특징을 반복적으로 결합 및 정제한다.
- 다양한 추가 단서에 대한 실험 결과, 제안 방법이 최근 20개의 최신 COD 방법들을 크게 능가함을 보인다.
สถิติ
제안 방법은 COD10K, NC4K, CAMO 데이터셋에서 기존 최신 방법 대비 평균 4.9%, 8.6%, 7.7%, 2.8%, 26.4% 향상된 성능을 보인다.
제안 방법은 HitNet 대비 NC4K에서 2.1%, 1.3%, 0.5%, 1.4%, 15.4% 향상되었고, CAMO에서 3.6%, 3.0%, 2.4%, 1.8%, 12.3% 향상되었다.
คำพูด
"본 논문은 다양한 추가 단서를 통합하여 위장 물체 특징 학습을 안내하는 통합 end-to-end 가능 모델을 제안한다."
"제안 방법은 COD10K, NC4K, CAMO 데이터셋에서 기존 최신 방법 대비 평균 4.9%, 8.6%, 7.7%, 2.8%, 26.4% 향상된 성능을 보인다."