핵심 개념
Generative PLMs can be enhanced with the lightweight QASE module to improve text generation quality and factual consistency in MRC tasks.
초록
研究では、Question-Attended Span Extraction(QASE)モジュールを使用して、生成的PLMを改善し、MRCタスクでのテキスト生成の品質と事実の整合性を向上させることが示されています。QASEにより、複数のパッセージにまたがる回答や暗黙的な回答など、複雑なシナリオでも正確な回答が生成されます。また、QASEは実世界の知識を活用する能力も向上させます。
통계
QASE-enhanced model outperforms vanilla fine-tuned models on SQuAD, MultiSpanQA, and Quoref datasets.
Flan-T5-LargeQASE surpasses GPT-4 by a significant margin on all three MRC datasets.
Q2 scores show that QASE-enhanced models consistently outperform the vanilla fine-tuned model in terms of factual consistency.