核心概念
정보 추출의 품질을 객관적으로 평가하기 위한 자동화된 프레임워크를 제안한다. 이를 위해 인공적으로 생성된 복잡한 정보를 문서에 삽입하여 대규모 언어 모델의 정보 추출 효율성을 테스트한다.
要約
이 논문은 정보 추출(IE) 품질 평가 방법에 대해 다룬다. 먼저 대규모 언어 모델(LLM)의 기술적 한계를 살펴보고, 이를 고려하여 정보를 효과적으로 추출하는 방법을 설명한다.
정보 추출의 품질을 평가하기 위해 다음과 같은 방법을 제안한다:
- 문서에 인공적으로 생성된 복잡한 정보("바늘")를 삽입하여 합성 기준 진실을 만든다.
- 반복적인 추출 프로세스와 MINEA(Multiple Infused Needle Extraction Accuracy) 점수를 도입하여 라벨링된 데이터가 없는 상황에서도 추출 품질을 객관적으로 측정할 수 있다.
실험 결과를 통해 제안한 방법이 LLM 기반 IE 작업의 품질 평가에 유용함을 입증한다.
統計
문서에 포함된 정보를 효과적으로 추출하기 위해서는 LLM의 입력 및 출력 길이 제한을 고려해야 한다.
긴 문서의 경우 중간 부분의 정보 추출 성능이 저하되는 "Lost in the middle" 현상이 나타난다.
引用
"정보 추출의 품질을 객관적으로 평가하기 위한 자동화된 프레임워크를 제안한다."
"인공적으로 생성된 복잡한 정보를 문서에 삽입하여 대규모 언어 모델의 정보 추출 효율성을 테스트한다."