מושגי ליבה
低リソース状況での関係表現を向上させるために、MVRE(Multi-View Relation Extraction)が提案されました。
תקציר
最近、事前学習言語モデル(PLMs)とプロンプト調整により、関係抽出(RE)タスクの能力が大幅に向上しています。しかし、低リソースシナリオでは、利用可能なトレーニングデータが不足しているため、以前のプロンプトベース方法は依然として浅い理解から関係表現学習がうまくいかないことがあります。この論文では、MVRE(Multi-View Relation Extraction)と呼ばれる新しいプロンプトベース関係表現方法を提案しました。MVREは各関係を異なる視点に分解し、多視点の関係表現を包括することで、関係推論中の尤度最大化を目指しています。さらに、グローバル・ローカル損失とダイナミック初期化手法も導入されています。
סטטיסטיקה
SemEvalデータセット:6,507件の訓練データ、1,493件の開発データ、2,717件のテストデータ
TACREDデータセット:68,124件の訓練データ、22,631件の開発データ、15,509件のテストデータ
TACREVデータセット:68,124件の訓練データ、22,631件の開発データ、15,509件のテストデータ
ציטוטים
"Prompt-tuning with pre-trained language models has demonstrated significantly enhancing ability of relation extraction tasks."
"In low-resource scenarios, previous prompt-based methods may still perform poorly for prompt-based representation learning due to a superficial understanding of the relation."
"Our method significantly outperforms existing state-of-the-art prompt-tuning approaches in low-resource settings."