Kernkonzepte
사전 훈련된 언어 모델의 도메인 일반화 능력을 향상시키기 위해서는 프롬프트에 대한 모델의 관심 집중도와 그 안정성을 높이는 것이 중요하다.
Zusammenfassung
언어 모델의 도메인 일반화 능력 향상을 위한 프롬프트 최적화 연구
본 연구는 사전 훈련된 언어 모델(PLM)의 다양한 다운스트림 작업에서 도메인 일반화 능력을 향상시키는 새로운 프롬프트 최적화 방법을 제시한다.
본 연구는 먼저 도메인 일반화 능력이 뛰어난 프롬프트의 특징을 분석하기 위해 파일럿 실험을 진행했다. 실험 결과, 도메인 일반화 능력이 뛰어난 프롬프트는 PLM의 심층 레이어에서 더 높은 관심 가중치를 얻고, 더 안정적인 관심 분포를 보이는 것으로 나타났다. 이러한 발견을 바탕으로, 본 연구는 소프트 프롬프트와 하드 프롬프트 최적화를 위한 새로운 방법을 제시한다.
소프트 프롬프트 최적화
소프트 프롬프트 최적화를 위해 본 연구는 '집중 재가중 손실(concentration-reweighting loss)'이라는 새로운 개념을 제시한다. 이 손실 함수는 원래 입력 시퀀스에 대한 관심 가중치를 최소화하여 모델이 다양한 입력에 대해 안정적으로 프롬프트에 집중하도록 유도한다.
하드 프롬프트 최적화
하드 프롬프트 최적화를 위해 본 연구는 '전역 집중 점수(Global Concentration Score, GCS)'라는 새로운 지표를 제시한다. 이 지표는 프롬프트의 집중 강도와 집중 변동을 모두 고려하여 프롬프트의 품질을 평가한다. 또한, 다중 에이전트 강화 학습(MARL) 기법을 사용하여 각 입력에 대해 최적의 하드 프롬프트를 매칭하는 새로운 프레임워크를 제시한다.