Core Concepts
본 연구는 대규모 언어 모델의 쿼리 의존적 매개변수 효율적 미세 조정 기법을 제안하여 텍스트 재순위화 성능을 향상시킨다.
Abstract
본 논문은 대규모 언어 모델(LLM)을 활용하여 텍스트 재순위화 작업을 수행하는 새로운 접근법을 제안한다. 기존의 LLM 기반 재순위화 방법들은 고정된 프롬프트를 사용하거나 특정 작업에 과적합되는 등의 한계가 있었다. 이를 해결하기 위해 본 연구에서는 쿼리 의존적 매개변수 효율적 미세 조정(Q-PEFT) 기법을 제안한다.
Q-PEFT는 쿼리 정보를 활용하여 문서별 합성 쿼리를 생성하고, 이를 통해 문서-쿼리 관련성 점수를 향상시킨다. 구체적으로 Q-PEFT-R은 쿼리의 상위 k개 유사 토큰을 활용하고, Q-PEFT-A는 멀티헤드 어텐션 메커니즘을 사용한다. 이를 통해 LLM이 문서 특화적인 합성 쿼리를 생성할 수 있도록 한다.
실험 결과, Q-PEFT 기반 모델은 다양한 검색 모델과 데이터셋에서 기존 방법 대비 유의미한 성능 향상을 보였다. 특히 비지도 학습 검색 모델에서 큰 성능 향상을 달성했다. 이는 Q-PEFT가 LLM의 생성 능력을 효과적으로 활용하여 문서-쿼리 관련성을 향상시킬 수 있음을 보여준다.
Stats
쿼리-문서 쌍의 수는 데이터셋별로 NQ 79,168개, WebQ 3,417개, SQuAD 78,713개, TriviaQA 78,785개이다.
검색 모델별 상위 100개 문서에 대한 Recall@10과 Hit Rate@10 지표를 보고하였다.