Centrala begrepp
모델이 계속적으로 학습하는 것이 구성적 일반화 능력을 향상시킬 수 있다.
Sammanfattning
이 논문은 NLI에서 구성적 일반화를 탐구하고, 계속적 학습이 구성적 일반화 능력에 미치는 영향을 조사합니다. 실험 결과는 모델이 계속적으로 학습할수록 구성적 일반화 능력이 향상되는 것을 보여줍니다. 또한, 다양한 계속적 학습 전략을 적용하여 모델의 성능을 향상시키는 방법을 제시합니다.
Abstract
- Compositional Natural Language Inference (NLI) has been explored to assess neural models' abilities.
- Continual Compositional Generalization in Inference (C2Gen NLI) challenge introduced.
- Models fail to compositionally generalize in a continual scenario.
- Benchmarking continual learning algorithms and analyzing correlations between subtasks.
Introduction
- NLI determines inferential relation between sentences.
- Large pre-trained models achieve human-level performance.
- Compositional Generalization evaluation proposed for NLI.
- Continual learning setup designed for compositional NLI inference tasks.
Data Extraction
- 모델이 계속적으로 학습할수록 구성적 일반화 능력이 향상됨을 보여줍니다.
Statistik
모델이 계속적으로 학습할수록 구성적 일반화 능력이 향상됨을 보여줍니다.
Citat
"모델이 계속적으로 학습할수록 구성적 일반화 능력이 향상됨을 보여줍니다."