Core Concepts
AuxSegNet+는 약 감독 보조 학습 프레임워크로, 시각적 의미 분할의 주요 작업을 향상시키기 위해 보조 작업으로 다중 레이블 이미지 분류 및 돋보기 감지를 활용합니다.
Abstract
기존 약 감독 의미 분할 방법은 Class Activation Mapping (CAM)을 사용하여 가장 중요한 객체 영역을 발견합니다.
AuxSegNet+은 새로운 상태-of-the-art WSSS 결과를 PASCAL VOC 및 MS COCO에서 보여줍니다.
제안된 방법은 세 가지 작업을 학습하여 온라인 적응을 달성하고, 각 작업 간의 상호 작용을 통해 세 가지 작업을 함께 학습합니다.
제안된 방법은 약 감독 다중 작업 딥 네트워크를 제안하여, 이미지 수준의 지상 참조 레이블만 사용하여 주요 작업(시맨틱 분할)의 학습을 돕기 위해 다중 레이블 이미지 분류 및 돋보기 감지를 사용합니다.
제안된 방법은 쌍별 및 단항 친화도를 모델링하는 교차 작업 이중 친화도 학습 모듈을 도입하여, 작업별 특징을 향상시키고, 다중 작업 예측을 강화하고, 시맨틱 분할 및 돋보기 감지의 가짜 레이블을 정제합니다.
Stats
대부분의 기존 WSSS 접근 방식은 바운딩 박스, 스크리블, 포인트 및 이미지 수준 레이블을 사용합니다.
AuxSegNet+는 ResNet38를 백본 네트워크로 사용합니다.
PASCAL VOC에서 CAM 임계값이 0.2일 때 정밀도는 85.6%, 재현율은 42.9%, mIoU는 40.6%입니다.
Quotes
"Most existing weakly supervised semantic segmentation (WSSS) methods rely on Class Activation Mapping (CAM) to extract coarse class-specific localization maps using image-level labels."
"We propose AuxSegNet+, a weakly supervised auxiliary learning framework to explore the rich information from these saliency maps and the significant inter-task correlation between saliency detection and semantic segmentation."