Core Concepts
결정된 다중 레이블 학습 설정을 통해 다중 레이블 작업의 레이블링 비용을 효과적으로 줄이고, 유사성 기반 프롬프트 학습 방법을 통해 레이블의 의미 정보를 향상시킴.
Abstract
이 논문은 다중 레이블 학습 작업의 레이블링 비용을 줄이기 위한 새로운 레이블링 설정인 결정된 다중 레이블 학습(DMLL)을 제안한다.
DMLL 설정에서는 각 학습 인스턴스에 무작위로 선택된 클래스 레이블이 할당되며, 학습자는 해당 레이블이 인스턴스에 포함되는지 여부만 판단하면 된다. 이를 통해 기존 다중 레이블 학습 설정에 비해 레이블링 비용을 크게 줄일 수 있다.
또한 이 논문은 유사성 기반 프롬프트 학습 방법을 처음으로 소개한다. 이 방법은 대규모 사전 학습 모델의 출력을 활용하여 제안한 위험 일관 손실 함수를 최소화함으로써 레이블의 의미 정보를 향상시킨다.
실험 결과, 제안 방법은 기존 최신 약한 감독 다중 레이블 학습 방법들에 비해 우수한 성능을 보였다. 이는 대규모 모델을 활용한 약한 감독 방법의 잠재력을 보여준다.
Stats
각 데이터셋의 클래스 수, 학습 데이터 수, 긍정 샘플 비율, 부정 샘플 비율은 다음과 같다:
VOC: 20 클래스, 5,717 샘플, 6.9% 긍정, 93.1% 부정
COCO: 80 클래스, 82,081 샘플, 3.6% 긍정, 96.4% 부정
NUS: 81 클래스, 161,789 샘플, 2.3% 긍정, 97.7% 부정
CUB: 312 클래스, 5,994 샘플, 9.8% 긍정, 90.2% 부정