本論文は、自然言語処理分野における多タスク学習の活用について概説する。まず、4つのクラスに分類される多タスク学習のアーキテクチャを紹介する。次に、損失関数の構築、勾配の正則化、データサンプリング、タスクスケジューリングなど、多タスク学習モデルの最適化手法について説明する。その後、補助的多タスク学習と共同多タスク学習の2つのカテゴリに分けて、様々な自然言語処理タスクへの多タスク学習の適用例を示す。最後に、多タスク学習のベンチマークデータセットを紹介し、この分野の今後の研究課題について議論する。
Na inny język
z treści źródłowej
arxiv.org
Głębsze pytania