提案された手法は、CLIPモデルを使用してプロンプト選択メカニズムの安定性を強化し、2つのレベルのプロンプトチューニングを行います。
このアプローチは、他のPrompt Tuning方法よりも優れたパフォーマンスを示しました。
STAR-Promptは、異なるドメインでの実験でも高い柔軟性と安定性を示しました。
Introduction
提案されたSTAR-Promptアプローチは、Continual Learningにおける安定性と柔軟性を向上させる革新的な手法です。この手法では、CLIPモデルを使用してプロンプト選択メカニズムの安定性を強化し、2つのレベルのプロンプトチューニングを行います。STAR-Promptは他のPrompt Tuning方法よりも優れたパフォーマンスを示し、異なるドメインでの実験でも高い柔軟性と安定性を示しました。
Data Extraction
Prompt-tuning methods freeze a large pre-trained model and focus training on prompts.
Most methods organize prompts in key-value pairs and use input images as queries.
The selection strategy of prompts is subject to catastrophic forgetting, leading to interference between tasks.
Semantic Residual Prompts for Continual Learning
Stats
Prompt-tuning methods freeze a large pre-trained model and focus training on prompts.
Most methods organize prompts in key-value pairs and use input images as queries.
The selection strategy of prompts is subject to catastrophic forgetting, leading to interference between tasks.
Quotes
"Most of these methods organize these vectors in a pool of key-value pairs, and use the input image as query to retrieve the prompts (values)."
"As keys are learned while tasks progress, the prompting selection strategy is itself subject to catastrophic forgetting."