Core Concepts
提案された新しいシナジスティックアンカードコントラスティブプリトレーニングフレームワークは、多視点からの一貫した意味的表現学習を可能にし、幅広い実験でその有効性と汎化能力を示しています。
Abstract
抽出された内容は、Few-shot Relation Extraction(FSRE)の新しいプリトレーニングフレームワークに焦点を当てています。
フレームワークは、対称的なコントラスティブ目的を導入し、文アンカーおよびラベルアンカーのコントラスト損失を組み合わせて一貫性を確保します。
実験結果は、他のFSREベースラインに比べてフレームワークが優れたパフォーマンス向上を達成していることを示しています。
SaConはドメイン適応やゼロショット設定でも強力な能力を発揮しており、その堅牢性が際立っています。
Abstract
FSRE aims to extract relational facts from sparse labeled corpora.
Recent studies show promising results using PLMs in supervised contrastive learning.
Proposed framework introduces a novel synergistic anchored contrastive pre-training approach.
Introduction
RE is crucial in NLP, but scarcity of annotated data poses challenges.
FSRE task introduced as an effective solution.
Success of PLMs inspires various pre-training frameworks for FSRE.
Data Extraction
Model 5-way-1-shot 5-way-5-shot 10-way-1-shot 10-way-5-shot
Proto-BERT ∗ 82.92 / 80.68 91.32 / 89.60 73.24 / 71.48 83.68 / 82.89
Proto-BERT+SaCon 92.38 / 95.35 96.62 / 97.71 86.78 / 91.02 93.29 / 95.32
BERT-PAIR ♣85.66 /88 .32...
Quotes
"Recent CL-based pre-training frameworks have achieved state-of-the-art performance on FSRE benchmarks."
"Our proposed SaCon indeed enhances the performance of various downstream FSRE baselines."