最近、事前学習言語モデル(PLMs)とプロンプト調整により、関係抽出(RE)タスクの能力が大幅に向上しています。しかし、低リソースシナリオでは、利用可能なトレーニングデータが不足しているため、以前のプロンプトベース方法は依然として浅い理解から関係表現学習がうまくいかないことがあります。この論文では、MVRE(Multi-View Relation Extraction)と呼ばれる新しいプロンプトベース関係表現方法を提案しました。MVREは各関係を異なる視点に分解し、多視点の関係表現を包括することで、関係推論中の尤度最大化を目指しています。さらに、グローバル・ローカル損失とダイナミック初期化手法も導入されています。
In un'altra lingua
dal contenuto originale
arxiv.org
Approfondimenti chiave tratti da
by Chenghao Fan... alle arxiv.org 02-29-2024
https://arxiv.org/pdf/2312.17267.pdfDomande più approfondite