사전 훈련된 대규모 비전 모델을 새로운 작업에 효율적으로 적용하기 위해 인간의 시각 인지에서 영감을 받아 공간 정보와 주파수 정보를 모두 활용하는 새로운 프롬프트 튜닝 방법인 VFPT를 제안합니다.
본 논문에서는 조건부 확산 모델을 활용하여 고품질 프롬프트를 생성하는 새로운 프롬프트 튜닝 프레임워크인 프롬프트 디퓨저(Prompt Diffuser)를 제안합니다. 프롬프트 디퓨저는 기존 프롬프트 튜닝 방법의 문제점인 초기 프롬프트 품질에 대한 의존성을 극복하고, 다운스트림 작업 안내와 그래디언트 투영 기술을 통해 생성된 프롬프트의 품질을 향상시켜 메타 강화학습 환경에서 효과적인 정책 일반화를 달성합니다.
본 논문에서는 적은 파라미터를 사용하면서도 기존 프롬프트 튜닝 방법보다 성능이 뛰어나고 전체 미세 조정 및 LoRA와 비슷한 성능을 보이는 인스턴스별 소프트 프롬프팅 방법인 LoPA(Low-Rank Prompt Adaptation)를 제안합니다.
대규모 언어 모델의 프롬프트 튜닝을 위한 새로운 접근 방식인 작업 프롬프트 벡터를 소개하며, 이는 다중 작업 설정에서 효율성과 모듈성을 향상시킵니다.
ACCEPT는 사전 훈련된 언어 모델의 파라미터 효율성을 향상시키기 위해 프롬프트 임베딩을 하위 공간으로 분할하고 학습 가능한 코드워드 및 가중치를 사용하여 각 하위 프롬프트를 계산하는 새로운 프롬프트 튜닝 방법입니다.
대규모 언어 모델의 성능을 향상시키기 위해 강화 학습 기반의 새로운 프롬프트 튜닝 방법론인 StablePrompt를 제안하고, 다양한 작업에서 기존 방법 대비 우수한 성능을 보여줍니다.
본 논문에서는 특정 작업에 최적화된 소프트 프롬프트와 폭넓은 적용성을 가진 핸드크래프트 프롬프트를 상호 정보 극대화를 통해 결합하여, 다운스트림 작업 성능과 일반화 능력 모두에서 우수한 성능을 달성하는 새로운 프롬프트 튜닝 방법을 제시합니다. 또한, 시각적 양식에서 클래스별 증강을 도입하여 표현력을 높여 광범위한 unseen 클래스에 대한 강력한 성능을 보입니다.
비전-언어 모델의 암시적 지식을 다양한 하위 작업에 적응시키기 위해 연성 문맥 공유를 통한 프롬프트 튜닝 기법을 제안한다.