Keskeiset käsitteet
검색 증강 대규모 언어 모델(RALM)에서 다양한 검색기 간의 성능 불일치 현상이 광범위하게 존재하며, 이는 주로 지식 출처의 근본적인 차이와 판독 모델의 예측 불가능한 성능 저하에서 기인한다. 앙상블 기법을 활용한 검색기 조합과 적응형 검색 전략을 통해 이러한 불일치 문제를 완화하고 RALM의 전반적인 성능을 향상시킬 수 있다.
Tiivistelmä
검색 증강 대규모 언어 모델에서 검색기 불일치 현상 완화 및 그 원인 규명
본 연구는 검색 증강 대규모 언어 모델(RALM)에서 다양한 검색기 간의 성능 불일치 현상을 심층 분석하고, 이러한 불일치 현상을 완화하는 효과적인 방법을 제시하는 것을 목표로 한다.
본 연구는 단답형 개방형 질문 답변(ODQA) 과제를 벤치마크로 활용하여, 검색 엔진, 위키피디아, 매개변수화된 지식 등 다양한 지식 출처와 절단, 연결, 재순위 지정, 압축 등 다양한 처리 방법을 사용하는 15개의 검색기를 구축하였다. Llama2-chat7B, 13B 및 ChatGPT를 기본 언어 모델로 사용하여 각 검색기의 성능을 평가하고, 검색기 간의 불일치 현상을 정량적으로 측정하였다. 또한, RALM의 오류를 검색기 오류, 추출 오류, 환각 오류, 운 좋은 추측의 네 가지 범주로 분류하여 분석하고, 각 오류 유형의 발생 패턴을 분석하여 검색기 불일치 현상의 원인을 규명하였다. 마지막으로, 분석 결과를 바탕으로 앙상블 기법을 활용한 검색기 조합(EoR)이라는 새로운 프레임워크를 제안하고, 실험을 통해 EoR의 효과를 검증하였다.