Core Concepts
ビジョン言語モデルの長期忘却を軽減し、ゼロショット転送能力を向上させるためのパラメータ効率的な学習フレームワークを提案します。
Abstract
この記事は、ビジョン言語モデルの長期忘却問題を解決し、新しいタスクに対する適応性と効率性を高めるためにMoE-Adaptersを導入しています。DDASも導入され、自動的にテストデータを適切な場所に割り当てます。実験結果は、提案手法が従来手法よりも優れた性能を示しています。
Introduction
- Continual learning aims to empower vision-language models.
- Traditional training paradigms face challenges in adapting to dynamic environments.
- MoE-Adapters and DDAS are introduced to address these challenges.
Methodology
- MoE structure is used for continual learning with CLIP model.
- Incremental MoE-Adapters and DDAS are key components.
- Activate-freeze strategy enhances experts' collaboration.
Experiments
- Comparison with state-of-the-art methods in MTIL and CIL tasks.
- Our method outperforms others in terms of anti-forgetting and zero-shot transfer abilities.
- Computational cost analysis shows efficiency improvements.
Stats
提案手法は前提エキスパートプールからTopkエキスパートを活性化することで、「ゼロショット」および「平均」メトリックで他のアプローチよりも優れた結果を達成しています。
Quotes
"提案されたMoEアダプターでは、以前に学んだエキスパートと未使用のエキスパートが共同作業し、正確な予測が可能です。"
"DDASは各学習済みタスクの分布特性を効果的に捉えており、MTIL全体で優れた性能を発揮しています。"