MFORT-QA는 복잡한 질문에 대한 정확한 답변 생성을 위한 혁신적인 접근법을 제안한다. 이 방법은 두 가지 주요 단계로 구성된다.
첫 번째 단계에서는 소수 학습(FSL)을 사용하여 주어진 질문에 대한 관련 테이블과 연관된 컨텍스트를 검색한다. 이렇게 검색된 내용을 활용하여 대규모 언어 모델(LLM)인 ChatGPT에 대한 소수 학습 프롬프트를 구성한다.
두 번째 단계에서는 연쇄 사고(CoT) 프롬프팅을 활용하여 복잡한 질문을 순차적인 하위 질문과 추론 과정으로 분해한다. 검색 강화 생성(RAG)은 이 과정을 향상시키는데, 관련 테이블과 하이퍼링크 컨텍스트를 검색하여 초기 프롬프트를 보완한다. 이를 통해 LLM이 단계별로 정확한 답변을 생성할 수 있게 된다.
실험 결과, MFORT-QA는 기존의 추출적 테이블 질문 답변 방법보다 정확도를 크게 향상시켰다.
To Another Language
from source content
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Che Guan,Men... lúc arxiv.org 03-29-2024
https://arxiv.org/pdf/2403.19116.pdfYêu cầu sâu hơn