핵심 개념
CLIP을 향상시키기 위해 가짜 레이블을 사용하는 효과적인 훈련 전략을 탐구합니다.
초록
CLIP과 가짜 레이블을 사용하여 훈련 전략을 개발하고 CLIP의 이미지 분류 성능을 향상시킴
다양한 학습 시나리오를 탐색하고 반복적인 프롬프트 튜닝 전략이 CLIP의 정확도를 개선하는 것을 확인
가짜 레이블을 사용하여 모델의 편향을 완화하고 클래스별 정확도의 공정한 분배를 달성
통계
VLMs의 zero-shot 능력을 통해 "두 번째 세대"의 가짜 레이블링 접근 방식을 활용
반복적인 프롬프트 튜닝 전략은 CLIP의 정확도를 향상시킴
CLIP 기반 가짜 레이블을 사용하여 모델의 편향을 완화하고 클래스별 정확도를 공정하게 분배
인용구
"General purpose zero-shot learners used as general purpose pseudolabelers open the opportunity to develop training strategies that leverage pseudolabeled data beyond semi-supervised learning."
"We demonstrate that simple iterative training strategies for refining pseudolabels are highly effective approaches for limited-label prompt tuning."
"We show that prompts learned with iterative strategies help mitigate the 'rich get richer, poor get poorer' effect observed in semi-supervised approaches leveraging pseudolabels."