核心概念
モデルが連続的な学習シナリオで構成的一般化を行う際の挑戦を明らかにする。
要約
本文は、自然言語推論(NLI)における構成的一般化の継続学習に焦点を当てています。著者は、モデルが原始推論タスクを連続的に学び、それらの依存関係と難易度を観察しながら構成的一般化能力を向上させる方法に焦点を当てています。実験結果は、モデルが連続シナリオで構成的NLI推論を行う際に苦労していることを示しました。さらに、忘却問題に対処するための一連の連続学習アルゴリズムを評価し、その有効性を確認しました。
統計
モデルは原始推論タスクで優れた結果を示す。
C2Gen設定では、モデルは初期の原始推論知識を忘れる傾向がある。
ER戦略はプリミティブ認識と構成的一般化能力の両方で改善された結果をもたらす。
引用
"Models fail to compositionally generalize in a continual scenario."
"Our analyses show that by learning subtasks continuously while observing their dependencies and increasing degrees of difficulty, continual learning can enhance composition generalization ability."