Core Concepts
온라인 소스 프리 보편적 도메인 적응을 위해 대조적 학습과 엔트로피 최적화를 결합한 COMET 방법을 제안한다.
Abstract
이 논문은 온라인 소스 프리 보편적 도메인 적응 (online SF-UniDA) 문제를 다룬다. 이는 실제 응용 분야에서 중요한 과제이지만 아직 충분히 연구되지 않았다.
저자들은 COMET (Contrastive Mean Teacher)라는 새로운 방법을 제안한다. COMET은 다음과 같은 핵심 구성 요소를 가진다:
의사 레이블링: 배치 단위로 작동하는 온라인 환경에 적합한 의사 레이블링 기법을 제안한다. 이는 평균 교사 (mean teacher) 프레임워크에 포함되어 안정적인 의사 레이블을 제공한다.
대조 손실: 알려진 클래스의 샘플은 서로 가까워지고 알려지지 않은 클래스의 샘플은 멀어지도록 하는 대조 손실 함수를 설계한다. 이를 통해 도메인 시프트에 강인한 특징 공간을 학습할 수 있다.
엔트로피 손실: 알려진 클래스의 샘플은 낮은 엔트로피, 알려지지 않은 클래스의 샘플은 높은 엔트로피를 갖도록 하는 엔트로피 손실 함수를 적용한다. 이를 통해 알려지지 않은 클래스의 샘플을 신뢰성 있게 거부할 수 있다.
저자들은 DomainNet과 VisDA-C 데이터셋에서 실험을 수행하여 COMET이 온라인 SF-UniDA 문제에서 우수한 성능을 보임을 입증한다. 또한 다양한 분석을 통해 COMET의 강건성과 안정성을 확인한다.
Stats
알려진 클래스의 샘플은 낮은 엔트로피, 알려지지 않은 클래스의 샘플은 높은 엔트로피를 갖는다.
대조 손실을 통해 알려진 클래스의 샘플은 서로 가까워지고 알려지지 않은 클래스의 샘플은 멀어진다.
Quotes
"온라인 SF-UniDA 문제는 실제 응용 분야에서 중요한 과제이지만 아직 충분히 연구되지 않았다."
"COMET은 대조 손실과 엔트로피 손실을 결합하여 도메인 시프트에 강인한 특징 공간을 학습하고 알려지지 않은 클래스의 샘플을 신뢰성 있게 거부할 수 있다."