Core Concepts
提案されたAdaViProは、大規模事前学習モデルの適応性を高めるために、プロンプトの「どこに追加するか」の最適化を学習プロセスに統合します。
Abstract
プロンプトベースの方法が新しい「パラメータ効率的な微調整」パラダイムとして浮上しており、追加パラメータ数を最小限に抑えながら元のモデルを凍結したまま微調整します。
AdaViProは、「何を追加するか」という問題だけでなく、「どこに追加するか」という重要な側面も考慮し、手動で配置された既存の位置づけに代わるリージョンベースのアダプティブビジュアルプロンプトです。
Gumbel-Softmaxサンプリングを使用して、標準的なバックプロパゲーションを介してAdaViProのエンドツーエンド学習を可能にします。
実験では、AdaViProが事前学習済みモデルを適応させる際の新しい効率と精度のトレードオフを示すことが示されています。
1. 導入
プロントベースの微調整方法が大規模事前学習モデルへの新しいアプローチであることが紹介されています。
2. 関連作業
自己教師あり学習や大規模データセットの利用により、Transformerなど大規模モデルが成功していることが述べられています。
3. 方法論
AdaViProはエッジ検出器とマスク生成器から成り、画像固有のプロント生成を実現するために設計されています。
4. 実験結果
AdaViProは他手法よりも優れた性能を示し、特に可変サイズオブジェクトへの適応性で優位性が見られます。
Stats
AdaViProは9つの画像ベンチマークで効果的であり、平均改善率は2.2%です。