Core Concepts
대규모 언어 모델의 성능 향상을 위해 증거 문서에서 관련 지식을 효과적으로 선택하는 방법을 제안한다.
Abstract
이 논문은 대규모 언어 모델의 질문 답변 성능을 향상시키기 위해 증거 문서에서 관련 지식을 효과적으로 선택하는 KS-LLM 방법을 제안한다.
질문을 기반으로 트리플을 생성하여 질문의 핵심 정보를 포착한다.
생성된 트리플과 가장 유사한 증거 문서 문장을 선택하여 관련 지식을 추출한다.
선택된 문장과 트리플을 대규모 언어 모델의 입력으로 제공하여 정확한 답변을 생성한다.
실험 결과, 제안 방법은 다양한 대규모 언어 모델과 데이터셋에서 우수한 성능을 보였다. 이는 증거 문서에서 관련 지식을 효과적으로 선택할 수 있음을 보여준다.
Stats
2000자 이상의 증거 문서를 사용하면 대규모 언어 모델의 성능이 37.66%로 크게 저하된다.
300자 이하의 증거 문서를 사용하면 대규모 언어 모델의 성능이 52.69%로 향상된다.
Quotes
"Large language models (LLMs) suffer from the hallucination problem and face significant challenges when applied to knowledge-intensive tasks."
"Existing methods directly leverage the entire contents of the evidence document, which may introduce noise information and impair the performance of large language models."