Der Artikel befasst sich mit der Verbesserung der Robustheit von Referenzfreien Bildqualitätsmodellen (NR-IQA-Modelle) gegen adversarische Angriffe. Die Autoren zeigen theoretisch, dass die Änderungen in den vorhergesagten Qualitätswerten stark mit der L1-Norm des Gradienten des Modells in Bezug auf das Eingabebild zusammenhängen. Darauf aufbauend schlagen sie eine Norm-Regularisierungs-Trainingsstrategie (NT) vor, um die L1-Norm des Gradienten zu reduzieren und so die Robustheit der NR-IQA-Modelle zu erhöhen.
Die Experimente auf vier NR-IQA-Basismodellen zeigen, dass die NT-Strategie die Robustheit der Modelle gegen verschiedene adversarische Angriffe deutlich verbessert, ohne die Leistung auf unangegriffenen Bildern stark zu beeinträchtigen. Die Autoren analysieren auch den Zusammenhang zwischen der Gradientennorm und der Robustheit sowie den Einfluss der Hyperparameter auf die Leistung. Insgesamt bietet diese Arbeit wertvolle Erkenntnisse zur adversarischen Robustheit von NR-IQA-Modellen und legt den Grundstein für zukünftige Forschung in diesem Bereich.
Vers une autre langue
à partir du contenu source
arxiv.org
Questions plus approfondies