本研究は、SemEval-2024 Task 2の課題に取り組むものである。臨床試験報告書(CTR)の自然言語推論(NLI)は、医療分野における重要な課題であるが、大規模言語モデルの偏りや短絡的学習の問題に直面している。
本研究では以下の3つのデータ拡張手法を提案した:
これらの拡張データを、DeBERTaアーキテクチャと多タスク学習と組み合わせることで、NLI4CT 2024ベンチマークにおいて頑健性(faithfulness、consistency)が大幅に向上した。特に、意味的摂動が最も大きな効果を発揮した。一方で、拡張データの追加により、元のデータセットに対する性能が若干低下する傾向も見られた。
今後の課題として、より高品質な数値問題-答え生成、拡張データの妥当性検証、外部構造化知識の活用などが考えられる。
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Yuqi Wang,Ze... at arxiv.org 04-16-2024
https://arxiv.org/pdf/2404.09206.pdfDeeper Inquiries