本サーベイは、多タスク学習の進化を包括的に概説する。 伝統的な手法では、正則化、関係性学習、特徴伝播などの手法が提案されてきた。これらは、タスク間の関係性を捉えることで、効率的かつ効果的な学習を実現する。 深層学習の登場により、特徴融合、カスケーディング、知識蒸留、クロスタスクアテンションなどの手法が登場した。これらは、多様な特徴を効果的に活用することで、性能向上を図る。 さらに近年では、プリトレーン基盤モデルの登場により、タスクに依存しない汎用的な多タスク学習が可能になってきた。タスクプロンプティングやマルチモーダル統合などの手法が提案されている。 全体として、多タスク学習は、固定されたタスクセットを扱う従来の枠組みから、タスクやモダリティの制約から自由な柔軟なアプローチへと進化してきた。ゼロショット学習の能力を秘めた、歴史的に注目されてきた学習パラダイムの可能性が開かれつつある。
多タスク学習は、関連するタスクから有用な情報を活用することで、これらのタスクの同時的な性能向上を実現する。
多タスク学習の基本的なメカニズムについてはまだ十分に理解されていない。最適化手法の選択や勾配の整合性、勾配の大きさ、特徴の汎化性など、一般的に考えられているパラダイムを実験的に検証し、多タスク学習の理解を深めることが本研究の目的である。
重み減衰による正則化効果と多目的ラッソ問題への接続