핵심 개념
継続学習では、新しいタスクの学習が既存のタスクの性能に干渉することを防ぐ必要がある。本手法InfLoRAは、事前学習モデルのパラメータを低ランク空間に射影することで、新旧タスクの干渉を排除し、安定性と可塑性のバランスを取る。
초록
本論文は、継続学習のための新しい手法InfLoRAを提案している。継続学習では、新しいタスクを学習する際に既存のタスクの性能が低下する問題がある。InfLoRAは、事前学習モデルのパラメータを低ランク空間に射影することで、新旧タスクの干渉を排除する。具体的には以下の通り:
- InfLoRAは事前学習モデルのパラメータに少数の学習可能なパラメータを追加し、これらのパラメータを微調整することで新しいタスクを学習する。
- これらの追加パラメータは、事前学習モデルのパラメータを低ランク空間に射影するように設計される。
- この低ランク空間は、新しいタスクの勾配空間と既存タスクの勾配空間の交差部分に設計される。これにより、新しいタスクの学習が既存タスクに干渉することを防ぐ。
- 実験結果から、InfLoRAは既存の継続学習手法と比べて優れた性能を示すことが分かった。
통계
新しいタスクの勾配空間と既存タスクの勾配空間の交差部分に低ランク空間を設計することで、新しいタスクの学習が既存タスクに干渉することを防ぐ。