Core Concepts
본 논문에서는 RAG에서 검색 성능과 응답 품질을 향상시키기 위해 다양한 재작성 쿼리를 활용하여 관련 문서의 재현율을 높이는 다중 쿼리 재작성 프레임워크인 DMQR-RAG를 제안합니다.
Abstract
DMQR-RAG: RAG를 위한 다양한 다중 쿼리 재작성
본 논문에서는 Retrieval-Augmented Generation (RAG)에서 검색 성능과 최종 응답의 품질을 향상시키기 위해 고안된 다양한 다중 쿼리 재작성 프레임워크인 DMQR-RAG를 소개합니다.
연구 배경
대규모 언어 모델(LLM)은 뛰어난 성능에도 불구하고 정적 지식과 환각 현상으로 인해 신뢰성에 어려움을 겪습니다. RAG는 외부 정보를 통합하여 이러한 문제를 완화하지만, 사용자 쿼리에 포함된 노이즈와 의도 편향으로 인해 관련 문서 검색에 어려움을 겪습니다.
DMQR-RAG 프레임워크
본 논문에서는 다양한 정보 수준을 기반으로 쿼리 재작성 전략을 제시합니다.
- 정보 동등성: General Query Rewriting (GQR)은 노이즈를 제거하고 검색 정밀도를 높입니다. Keyword Rewriting (KWR)은 쿼리에서 키워드를 추출하여 검색 엔진의 효율성을 높입니다.
- 정보 확장: Pseudo-Answer Rewriting (PAR)은 LLM을 활용하여 의사 답변을 생성하여 검색 범위를 넓힙니다.
- 정보 감소: Core Content Extraction (CCE)은 과도한 정보를 제거하고 핵심 정보만 추출하여 검색의 정확도를 높입니다.
적응형 재작성 전략 선택
모든 쿼리에 동일한 재작성 전략을 적용하는 것은 비효율적입니다. 따라서 본 논문에서는 쿼리의 특징에 따라 적절한 재작성 전략을 동적으로 선택하는 방법을 제시합니다.
실험 및 결과
본 논문에서는 세 가지 공개 도메인 질문 답변 데이터 세트(AmbigNQ, HotpotQA, FreshQA)와 실제 산업 데이터 세트를 사용하여 DMQR-RAG의 성능을 평가했습니다. 실험 결과, DMQR-RAG는 기존 방법보다 검색 성능과 응답 품질이 크게 향상되었습니다.
결론
본 논문에서 제안된 DMQR-RAG는 RAG에서 문서 검색 및 최종 응답의 품질을 향상시키는 효과적인 방법입니다. 다양한 재작성 전략과 적응형 전략 선택 방법을 통해 다양한 유형의 쿼리에 효과적으로 대응할 수 있습니다.
Stats
FreshQA 데이터 세트에서 DMQR-RAG는 P@5에서 최고 기준선보다 14.46% 향상된 성능을 보였습니다.
HotpotQA 데이터 세트에서 DMQR-RAG는 복잡한 다중 홉 질문에서 약 8%의 향상을 보였습니다.
AmbigNQ 데이터 세트에서 DMQR-RAG는 EM 및 F1 점수에서 각각 1.30% 및 3.74% 향상된 성능을 보였습니다.
FreshQA 데이터 세트에서 DMQR-RAG는 정확도에서 Rewrite보다 5.84% 높은 성능을 보였습니다.
적응형 재작성 선택을 사용했을 때 Llama3-8B 및 GPT-4의 평균 재작성 횟수는 각각 2.482회와 2.455회로, 기존 4회에서 약 40% 감소했습니다.
실제 산업 시나리오에서 DMQR-RAG는 H@5를 평균 2.0%, P@5를 10.0% 향상시켰습니다.
Quotes
"사용자가 자신의 의도를 정확하게 표현하지 못하는 경우가 많기 때문에 관련 없는 문서가 검색될 수 있습니다."
"효과적인 다중 쿼리 재작성 전략은 각 재작성된 쿼리가 서로 다르고 다른 쿼리에 없는 고유한 정보를 제공해야 합니다."
"정보의 다양성을 개선함으로써 더 광범위한 문서를 검색할 가능성이 높아져 궁극적으로 진정으로 관련된 문서를 얻을 수 있는 기회가 향상됩니다."