Core Concepts
BERTとGNNからの知識を統合し、イベント時間関係抽出の性能を向上させるMulCoアプローチが新たな最先端成績を達成する。
Abstract
イベント時間関係抽出は重要であり、MulCoはBERTとGNNから知識を効果的に統合して高いパフォーマンスを実現する。
複数のデータセットで実験が行われ、新しい最先端成績が達成されている。
Multi-Scale Contrastive Knowledge Co-Distillation(MulCo)は、イベントペア間の構造的および階層的な情報を効果的に統合することで、BERTの長距離障壁を克服し、新たな最先端成績を達成している。
Introduction
Event Temporal Relation Extraction (ETRE) is a challenging problem.
Real-world texts contain various temporal event-pairs, necessitating models to capture cues from different proximity bands.
State-of-the-art Models
BERT-based models excel in short-distance linguistic cues, while GNNs capture long-distance structural cues better.
MulCo Model Formulation
MulCo integrates knowledge from both BERT and GNN through multi-scale knowledge co-distillation.
Experiments and Results
MulCo outperforms existing SOTAs on multiple datasets, showcasing the effectiveness of multi-scale knowledge distillation.
Limitations and Future Directions
GNNs do not improve on long- and short-distance tasks through multi-scale distillation from BERT, indicating a potential knowledge bottleneck.
Stats
"TIMERS (Mathur et al., 2021)はBERTとGNNの融合により強力なパフォーマンスを達成"
"SCS-EERE (Man et al., 2022)は現在の最良手法"
Quotes
"MulCo successfully integrates linguistic cues pertaining to temporal reasoning across both short and long proximity bands."
"Our paper addresses the problem of capturing distinct cues associated with different proximity bands through exploitation of a third option."