Core Concepts
정상 표현은 호환성 정의의 두 가지 부등식 제약 조건에 따라 최적으로 근사됩니다.
Abstract
이 논문은 정상 표현이 호환성 정의의 두 가지 부등식 제약 조건에 따라 최적으로 근사된다는 것을 보여줍니다. 이는 향후 연구에 대한 견고한 기반을 마련할 뿐만 아니라 실제 학습 시나리오에서 활용할 수 있는 함의를 제시합니다.
구체적으로, 논문은 순차적 미세 조정 중 모델이 비동기적으로 더 나은 성능의 사전 학습 모델로 교체되는 경우에 대해 설명합니다. 정상 표현을 사용하면 검색 서비스의 중단 없이 성능 향상을 달성할 수 있습니다. 이는 갤러리 이미지를 재처리할 필요가 없기 때문입니다.
또한 논문은 정상 표현 학습 시 교차 엔트로피 손실만으로는 고차 종속성을 완전히 포착하지 못할 수 있다는 문제를 제기합니다. 이를 해결하기 위해 교차 엔트로피 손실과 infoNCE 손실의 볼록 조합을 제안합니다. 이 결합 손실은 고차 종속성을 포착하면서도 호환성을 최적으로 근사할 수 있습니다.
Stats
순차적 미세 조정 중 모델이 비동기적으로 더 나은 성능의 사전 학습 모델로 교체되는 경우, 정상 표현을 사용하면 검색 서비스의 중단 없이 성능 향상을 달성할 수 있습니다.
정상 표현 학습 시 교차 엔트로피 손실만으로는 고차 종속성을 완전히 포착하지 못할 수 있습니다.
Quotes
"정상 표현은 호환성 정의의 두 가지 부등식 제약 조건에 따라 최적으로 근사됩니다."
"교차 엔트로피 손실과 infoNCE 손실의 볼록 조합은 고차 종속성을 포착하면서도 호환성을 최적으로 근사할 수 있습니다."