Core Concepts
이종 아키텍처 간 보완성을 활용하여 기본 모델의 표현 학습 능력을 향상시킬 수 있다.
Abstract
이 논문은 이종 아키텍처 간 보완성을 활용하여 기본 모델의 표현 학습 능력을 향상시키는 이종 자기지도 학습(HSSL) 기법을 제안한다.
HSSL은 기본 모델과 이종 아키텍처의 보조 헤드를 동시에 학습시킨다. 보조 헤드의 이종 아키텍처는 기본 모델에 없는 특성을 학습하게 되며, 이를 통해 기본 모델이 새로운 특성을 학습할 수 있게 한다.
저자들은 기본 모델과 보조 헤드 간 표현 차이가 클수록 기본 모델의 성능 향상이 크다는 것을 발견했다. 이를 바탕으로 빠른 검색 전략과 모델 간 차이를 늘리는 방법을 제안했다.
제안된 HSSL은 다양한 자기지도 학습 기법과 호환되며, 이미지 분류, 의미 분할, 인스턴스 분할, 객체 탐지 등 다양한 하위 작업에서 성능 향상을 보였다.
Stats
기본 모델과 보조 헤드 간 표현 차이가 클수록 기본 모델의 성능 향상이 크다.
다양한 아키텍처를 보조 헤드로 사용할 경우, 기본 모델의 성능이 향상된다.
보조 헤드의 깊이를 늘리거나 첫 번째 shortcut 연결을 제거하면 모델 간 차이를 늘릴 수 있다.
Quotes
"이종 아키텍처 간 보완성을 활용하여 기본 모델의 표현 학습 능력을 향상시킬 수 있다."
"기본 모델과 보조 헤드 간 표현 차이가 클수록 기본 모델의 성능 향상이 크다."
"제안된 HSSL은 다양한 자기지도 학습 기법과 호환되며, 다양한 하위 작업에서 성능 향상을 보였다."