MFORT-QA는 복잡한 질문에 대한 정확한 답변 생성을 위한 혁신적인 접근법을 제안한다. 이 방법은 두 가지 주요 단계로 구성된다.
첫 번째 단계에서는 소수 학습(FSL)을 사용하여 주어진 질문에 대한 관련 테이블과 연관된 컨텍스트를 검색한다. 이렇게 검색된 내용을 활용하여 대규모 언어 모델(LLM)인 ChatGPT에 대한 소수 학습 프롬프트를 구성한다.
두 번째 단계에서는 연쇄 사고(CoT) 프롬프팅을 활용하여 복잡한 질문을 순차적인 하위 질문과 추론 과정으로 분해한다. 검색 강화 생성(RAG)은 이 과정을 향상시키는데, 관련 테이블과 하이퍼링크 컨텍스트를 검색하여 초기 프롬프트를 보완한다. 이를 통해 LLM이 단계별로 정확한 답변을 생성할 수 있게 된다.
실험 결과, MFORT-QA는 기존의 추출적 테이블 질문 답변 방법보다 정확도를 크게 향상시켰다.
To Another Language
from source content
arxiv.org
Głębsze pytania