toplogo
サインイン

Pre-trained Model Guided Fine-Tuning for Zero-Shot Adversarial Robustness: Enhancing CLIP Model's Generalization


核心概念
Pre-trained Model Guided Adversarial Fine-Tuning (PMG-AFT) method enhances zero-shot adversarial robustness by leveraging supervision from the original pre-trained model.
要約

大規模な事前学習されたビジョン言語モデルは、さまざまなタスクで印象的なパフォーマンスを発揮し、ゼロショット汎化能力を示す。しかし、これらのモデルは不可視の敵対的例に脆弱である。PMG-AFTは、元の事前学習モデルから監督を活用し、ゼロショット敵対的堅牢性を向上させる新しい手法である。この手法は、敵対的ファインチューニングと正確に組み合わせてモデルの堅牢性を向上させる。

edit_icon

要約をカスタマイズ

edit_icon

AI でリライト

edit_icon

引用を生成

translate_icon

原文を翻訳

visual_icon

マインドマップを作成

visit_icon

原文を表示

統計
Extensive Experiments on 15 zero-shot datasets demonstrate that PMG-AFT significantly outperforms the state-of-the-art method, improving the top-1 robust accuracy by an average of 4.99%. Our approach consistently improves clean accuracy by an average of 8.72%.
引用

抽出されたキーインサイト

by Sibo Wang,Ji... 場所 arxiv.org 03-01-2024

https://arxiv.org/pdf/2401.04350.pdf
Pre-trained Model Guided Fine-Tuning for Zero-Shot Adversarial  Robustness

深掘り質問

他の記事や研究と比較して、PMG-AFTがどのように異なるアプローチを取っているか

PMG-AFTは、従来のアプローチと比較していくつかの重要な点で異なるアプローチを取っています。まず、PMG-AFTは元の事前学習モデルから監督を受けており、追加の制約や情報を導入することで、目標モデルが事前学習済みモデルから一般化された特徴を保持するように設計されています。これにより、過学習を抑制し、ゼロショットの堅牢性向上が可能となっています。また、PMG-AFTは外部最小化問題に焦点を当てており、敵対的トレーニングフレームワークから派生した防衛手法と組み合わせることができます。

元の事前学習モデルからの監督が堅牢性向上にどのように貢献しているか

元の事前学習モデルからの監督は堅牢性向上に重要な貢献をしています。具体的に言えば、PMG-AFTではCLIPイメージエンコーダー内部パラメータθだけでなくテキストエンコーダーϕも使用します。この方法ではテキスト埋め込みTori(·) を取得し、「robustness information branch」と「generalization information branch」両方に活用します。このようにして元々備わっている一般化能力や知識が新たなタスクへ適切かつ効果的に転送されることで堅牢性向上が実現されます。

この技術が将来的に他の分野へどのように応用される可能性があるか

この技術は将来的に他の分野でも応用される可能性があります。例えば医療画像処理領域では精度や信頼性が非常に重要です。PMG-AFT の手法は既存の大規模ビジョン・ランゲージ・モデル(VLP)へさまざまなドメイン固有タスクへ適応させる際も有効です。 その他産業分野でも同様であり,セキュリティ関連タスク等多岐 予想通り, PMG- A FT 技術 未来 様々 分野 応用 可能 性高.
0
star