Kontinuierliche Verteidigung gegen Angriffe: Wie man Modelle vor einer Abfolge von Angriffen schützt
Kontinuierliche Verteidigung gegen eine Abfolge von Angriffen ist entscheidend, um die Zuverlässigkeit von Deep-Learning-Modellen sicherzustellen. Traditionelle Verteidigungsmethoden sind auf einen einmaligen Angriff ausgelegt und können zu katastrophalem Vergessen führen, wenn sich neue Angriffe ergeben. Der Artikel stellt einen Baseline-Ansatz namens "Anisotropic & Isotropic Replay" (AIR) vor, der dieses Problem durch Pseudoreplikation und Regularisierung effektiv löst.