Core Concepts
Wir präsentieren den ersten adversarischen Angriff, der speziell auf videobasierte Sprachmodelle zugeschnitten ist, indem wir flussbasierte multimodale Störungen auf einen kleinen Teil der Frames innerhalb eines Videos erzeugen.
Abstract
Der Artikel untersucht erstmals die Anfälligkeit von videobasierten großen Sprachmodellen (LLMs) gegenüber adversarischen Angriffen. Die Autoren schlagen einen neuartigen flussbasierten multimodalen Angriff (FMM-Attack) vor, um videobasierte LLMs zu täuschen.
Kernpunkte:
FMM-Attack erzeugt unauffällige Störungen auf einem kleinen Teil der Videoframes, um videobasierte LLMs dazu zu bringen, falsche Antworten zu generieren.
Experimente zeigen, dass FMM-Attack videobasierte LLMs effektiv dazu bringt, entweder sinnlose Sequenzen oder falsche semantische Sequenzen zu erzeugen.
Die Beobachtungen zu Kreuzmodell-Merkmalsangriffen tragen zu einem tieferen Verständnis der Robustheit von Multimodell-Funktionen und der Ausrichtung sicherheitsrelevanter Merkmale bei.
Die Ergebnisse haben wichtige Implikationen für verschiedene große Multimodell-Modelle.
Stats
"66666666666666666666666666666666666666666666666"
"Nach dem Sprechen gehen die beiden Männer auf die andere Seite der Bühne."
Quotes
Keine relevanten Zitate gefunden.