Abstrak
本サーベイは、多タスク学習の進化を包括的に概説する。
伝統的な手法では、正則化、関係性学習、特徴伝播などの手法が提案されてきた。これらは、タスク間の関係性を捉えることで、効率的かつ効果的な学習を実現する。
深層学習の登場により、特徴融合、カスケーディング、知識蒸留、クロスタスクアテンションなどの手法が登場した。これらは、多様な特徴を効果的に活用することで、性能向上を図る。
さらに近年では、プリトレーン基盤モデルの登場により、タスクに依存しない汎用的な多タスク学習が可能になってきた。タスクプロンプティングやマルチモーダル統合などの手法が提案されている。
全体として、多タスク学習は、固定されたタスクセットを扱う従来の枠組みから、タスクやモダリティの制約から自由な柔軟なアプローチへと進化してきた。ゼロショット学習の能力を秘めた、歴史的に注目されてきた学習パラダイムの可能性が開かれつつある。
Kutipan
"多タスク学習は、関連するタスクの情報を効果的に活用して、複数のタスクを同時に学習する学習パラダイムである。"
"多タスク学習は、モデルの構造の簡素化、性能の向上、およびドメイン横断的な汎化能力の向上などの利点を得ることができる。"
"多タスク学習は、固定されたタスクセットを扱う従来の枠組みから、タスクやモダリティの制約から自由な柔軟なアプローチへと進化してきた。"
多タスク学習の発展に伴い、どのようなアプリケーションが生み出されていくと考えられるか?
多タスク学習の理論的な限界はどこにあるのか?また、それを克服するための方向性は?
プリトレーン基盤モデルを用いた多タスク学習は、人工知能の発展にどのような影響を及ぼすと考えられるか?