이 연구는 비전-언어 기반 모델의 제한적인 일반화 성능을 개선하기 위한 방법을 제안한다. 기존의 프롬프트 학습 방법들은 고정된 텍스트 인코더의 한계로 인해 특정 데이터셋에 과적합되는 문제가 있었다.
이를 해결하기 위해 PRE(Prompt Learning with Reparameterization Encoder)를 제안한다. PRE는 프롬프트 임베딩을 재매개화하는 인코더 네트워크를 사용하여 도메인 특화 지식을 효과적으로 활용한다. 구체적으로:
이를 통해 PRE는 비전-언어 모델의 일반화 성능을 향상시키는 효율적이고 효과적인 방법임을 입증한다.
Para outro idioma
do conteúdo fonte
arxiv.org
Principais Insights Extraídos De
by Thi Minh Anh... às arxiv.org 09-17-2024
https://arxiv.org/pdf/2309.07760.pdfPerguntas Mais Profundas