이 논문은 자기지도 학습(SSL)에서 표현의 차원 붕괴 문제를 다룬다. 기존 연구는 전역적 차원 붕괴에 초점을 맞추었지만, 이 논문에서는 표현이 전역적으로는 높은 차원을 가질 수 있지만 국소적으로 붕괴될 수 있음을 보여준다.
이를 해결하기 위해 저자들은 국소 차원 정규화(LDReg) 기법을 제안한다. LDReg는 Fisher-Rao 거리를 이용하여 각 데이터 포인트의 국소 거리 분포를 최적화함으로써 국소 차원을 높이는 것을 목표로 한다. 이를 통해 표현의 품질을 향상시킬 수 있다.
저자들은 또한 국소 차원 측정 및 비교에 대한 이론적 통찰을 제공한다. 구체적으로 국소 차원은 로그 스케일로 비교하는 것이 더 적절하며, 국소 차원 값을 집계할 때는 산술평균보다 기하평균이 더 자연스럽다는 것을 보였다.
실험 결과, LDReg는 다양한 SSL 방법론(SimCLR, BYOL, MAE 등)에 적용되어 표현 품질을 일관되게 향상시켰다. 이는 LDReg가 국소 및 전역 차원 붕괴를 모두 해결할 수 있음을 보여준다.
На другой язык
из исходного контента
arxiv.org
Дополнительные вопросы