대조 학습 손실 함수의 국소 최소점 문제를 해결하기 위해 레이블 정보를 활용한 새로운 회귀 손실 항을 제안하였다. 이를 통해 임베딩 클러스터의 분리를 촉진하여 분류 성능을 크게 향상시킬 수 있었다.
무작위로 생성된 데이터 프로젝션 함수를 재구성하는 것만으로도 우수한 데이터 표현을 학습할 수 있다.
프로베니우스 노름 최소화를 통해 다중 뷰 자기지도 학습의 효율성을 높이고, 경쟁력 있는 표현을 더 빠르게 학습할 수 있다.
프로베니우스 노름 최소화를 통해 다중 뷰 자기지도 학습의 효율성을 높이고, 경쟁력 있는 표현을 더 빠르게 학습할 수 있다.
자기지도 학습을 통해 학습된 표현은 차원 붕괴에 취약할 수 있다. 이 논문에서는 국소 차원 정규화 기법(LDReg)을 제안하여 국소적 및 전역적 차원 붕괴를 해결하고 표현 학습의 품질을 향상시킨다.