Основные понятия
대화형 질문 답변 모델의 추론을 관련 없는 대화 내용에 강건하게 만들기 위해 대화 내용을 합성 질문으로 증강하고 일관성 훈련을 수행한다.
Аннотация
이 논문은 대화형 질문 답변(Conversational Question Answering, CQA) 모델의 추론을 관련 없는 대화 내용에 강건하게 만드는 방법을 제안한다. 기존 연구에서는 모델이 과거 정답을 사용하는 문제가 있었는데, 이 논문에서는 이를 해결하기 위해 다음과 같은 접근을 취한다:
대화 내용을 합성 질문으로 증강한다. 이때 생성된 질문 중 대화 흐름과 유사한 질문만 선별하여 사용한다.
원래 대화 내용과 증강된 대화 내용을 모두 사용하여 모델을 일관성 있게 훈련한다. 이를 통해 모델이 관련 없는 대화 내용에 강건하게 추론할 수 있도록 한다.
실험 결과, 제안 모델은 기존 모델 대비 1.8% 향상된 F1 점수를 달성했으며, 특히 과거 대화 내용이 많은 질문에서 성능 향상이 두드러졌다. 이는 제안 방법이 관련 없는 대화 내용에 강건한 추론을 가능하게 했음을 보여준다.
Статистика
제안 모델(CoTaH-Bert)은 기존 모델(Bert) 대비 1.8% 향상된 F1 점수를 달성했다.
제안 모델은 과거 대화 내용이 많은 질문에서 특히 성능 향상이 두드러졌다.
Цитаты
"우리의 혁신적인 모델 독립적 접근법인 CoTaH(Consistency-Trained augmented History)에서는 과거 정보를 합성 질문으로 증강하고 일관성 훈련을 통해 모델이 관련 없는 과거 정보에 강건하게 추론할 수 있도록 한다."
"우리의 방법은 대화형 질문 답변 설정에서 질문 생성을 데이터 증강 형태로 사용하는 최초의 사례이다."