Die Studie untersuchte die Effizienz von Methoden zur adversarischen Reinigung als Verteidigung gegen adversarische Angriffe auf Bildqualitätsbeurteilungsmetriken. Es wurden 10 adversarische Angriffe und 16 Reinigungsmethoden getestet und ein Datensatz von adversarischen Bildern erstellt.
Die Ergebnisse zeigten, dass selbst einfache und schnelle Techniken wie Rotieren oder Spiegeln des Bildes Angriffe besiegen und die visuelle Qualität eines gereinigten Bildes nahe am Original halten können. Komplexere Verteidigungen können die Originalqualität erhalten und wiederherstellen: Die von den Autoren vorgeschlagenen Kombinationen von DiffPure mit Unschärfeanhebung liefern die höchste SROCC des verteidigten Linearity-Maßes, bei hoher Qualität der gereinigten Bilder und einem guten Gain-Score.
Die Effizienz der getesteten Reinigungsverteidigungen verhält sich ähnlich für verschiedene iterative gradientenbasierte Angriffe, unterscheidet sich aber für unbeschränkte Angriffe wie AdvCf. Solche Angriffe können durch das Training eines neuronalen Netzwerks auf adversarischen Beispielen neutralisiert werden. In dieser Studie schlugen die Autoren einen FCN-Filter vor, der Linearity effizient gegen den AdvCF-Angriff verteidigt.
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問