本研究は、視覚言語モデル(VLM)に対するバックドア攻撃に取り組んでいる。VLMは、コンピュータービジョンと大規模言語モデル(LLM)を統合し、視覚入力から詳細なテキスト記述を生成することができる。しかし、VLMのセキュリティ、特にバックドア攻撃に対する脆弱性は十分に研究されていない。
本研究では、攻撃者が元のトレーニングデータにアクセスできないという、より現実的で困難なシナリオを扱う。代わりに、攻撃者は外部データのみを使用することを想定している。
提案手法「VLOOD」には以下の2つの主要な貢献がある:
Başka Bir Dile
kaynak içeriğinden
arxiv.org
Önemli Bilgiler Şuradan Elde Edildi
by Weimin Lyu, ... : arxiv.org 10-03-2024
https://arxiv.org/pdf/2410.01264.pdfDaha Derin Sorular