Core Concepts
Angreifer können Embodied Agents unter Federated Learning manipulieren, um sie entgegen der Sprachanweisung zu navigieren. Eine neue Prompt-basierte Verteidigungsmethode kann diese Angriffe effektiv abwehren.
Abstract
In dieser Arbeit wird das Problem des gezielten Angriffs und der Verteidigung von Federated Embodied Agents am Beispiel der Federated Vision-and-Language Navigation (FedVLN) untersucht.
Zunächst wird eine einfache, aber effektive Angriffsstrategie namens "Navigation As Wish" (NAW) vorgestellt, bei der böswillige Clients die lokalen Trainingsdaten manipulieren, um einen Backdoor in das globale Modell einzuschleusen. Dadurch kann der Agent unabhängig von der Sprachanweisung navigiert werden.
Um diese Angriffe abzuwehren, wird eine neuartige Prompt-basierte Aggregationsmethode (PBA) vorgeschlagen. PBA erfasst die Varianz der Vision-Sprache-Ausrichtung zwischen bösartigen und gutartigen Clients und ermöglicht es dem Server, diese zu unterscheiden und bei der Aggregation zu berücksichtigen.
Die Experimente auf zwei VLN-Datensätzen zeigen, dass NAW eine sehr hohe Angriffserfolgrate gegen frühere Verteidigungsmethoden erreichen kann. Gleichzeitig übertrifft PBA andere Verteidigungsmethoden deutlich in Bezug auf Treue, Robustheit und Effizienz.
Stats
Die Angriffserfolgsrate (ASR) des globalen Modells ist unter dem Angriff viel höher als ohne Angriff.
Quotes
"Mit dem gezielten Backdoor-Angriff kann der Agent unabhängig von der Sprachanweisung navigiert werden."
"Die Prompt-basierte Aggregationsmethode (PBA) erfasst die Varianz der Vision-Sprache-Ausrichtung zwischen bösartigen und gutartigen Clients und ermöglicht es dem Server, diese zu unterscheiden."