toplogo
Masuk

Pre-trained Model Guided Fine-Tuning for Zero-Shot Adversarial Robustness: Enhancing CLIP Model's Generalization


Konsep Inti
Pre-trained Model Guided Adversarial Fine-Tuning (PMG-AFT) method enhances zero-shot adversarial robustness by leveraging supervision from the original pre-trained model.
Abstrak

大規模な事前学習されたビジョン言語モデルは、さまざまなタスクで印象的なパフォーマンスを発揮し、ゼロショット汎化能力を示す。しかし、これらのモデルは不可視の敵対的例に脆弱である。PMG-AFTは、元の事前学習モデルから監督を活用し、ゼロショット敵対的堅牢性を向上させる新しい手法である。この手法は、敵対的ファインチューニングと正確に組み合わせてモデルの堅牢性を向上させる。

edit_icon

Kustomisasi Ringkasan

edit_icon

Tulis Ulang dengan AI

edit_icon

Buat Sitasi

translate_icon

Terjemahkan Sumber

visual_icon

Buat Peta Pikiran

visit_icon

Kunjungi Sumber

Statistik
Extensive Experiments on 15 zero-shot datasets demonstrate that PMG-AFT significantly outperforms the state-of-the-art method, improving the top-1 robust accuracy by an average of 4.99%. Our approach consistently improves clean accuracy by an average of 8.72%.
Kutipan

Pertanyaan yang Lebih Dalam

他の記事や研究と比較して、PMG-AFTがどのように異なるアプローチを取っているか

PMG-AFTは、従来のアプローチと比較していくつかの重要な点で異なるアプローチを取っています。まず、PMG-AFTは元の事前学習モデルから監督を受けており、追加の制約や情報を導入することで、目標モデルが事前学習済みモデルから一般化された特徴を保持するように設計されています。これにより、過学習を抑制し、ゼロショットの堅牢性向上が可能となっています。また、PMG-AFTは外部最小化問題に焦点を当てており、敵対的トレーニングフレームワークから派生した防衛手法と組み合わせることができます。

元の事前学習モデルからの監督が堅牢性向上にどのように貢献しているか

元の事前学習モデルからの監督は堅牢性向上に重要な貢献をしています。具体的に言えば、PMG-AFTではCLIPイメージエンコーダー内部パラメータθだけでなくテキストエンコーダーϕも使用します。この方法ではテキスト埋め込みTori(·) を取得し、「robustness information branch」と「generalization information branch」両方に活用します。このようにして元々備わっている一般化能力や知識が新たなタスクへ適切かつ効果的に転送されることで堅牢性向上が実現されます。

この技術が将来的に他の分野へどのように応用される可能性があるか

この技術は将来的に他の分野でも応用される可能性があります。例えば医療画像処理領域では精度や信頼性が非常に重要です。PMG-AFT の手法は既存の大規模ビジョン・ランゲージ・モデル(VLP)へさまざまなドメイン固有タスクへ適応させる際も有効です。 その他産業分野でも同様であり,セキュリティ関連タスク等多岐 予想通り, PMG- A FT 技術 未来 様々 分野 応用 可能 性高.
0
star