Der Artikel befasst sich mit der Verbesserung der Robustheit von Referenzfreien Bildqualitätsmodellen (NR-IQA-Modelle) gegen adversarische Angriffe. Die Autoren zeigen theoretisch, dass die Änderungen in den vorhergesagten Qualitätswerten stark mit der L1-Norm des Gradienten des Modells in Bezug auf das Eingabebild zusammenhängen. Darauf aufbauend schlagen sie eine Norm-Regularisierungs-Trainingsstrategie (NT) vor, um die L1-Norm des Gradienten zu reduzieren und so die Robustheit der NR-IQA-Modelle zu erhöhen.
Die Experimente auf vier NR-IQA-Basismodellen zeigen, dass die NT-Strategie die Robustheit der Modelle gegen verschiedene adversarische Angriffe deutlich verbessert, ohne die Leistung auf unangegriffenen Bildern stark zu beeinträchtigen. Die Autoren analysieren auch den Zusammenhang zwischen der Gradientennorm und der Robustheit sowie den Einfluss der Hyperparameter auf die Leistung. Insgesamt bietet diese Arbeit wertvolle Erkenntnisse zur adversarischen Robustheit von NR-IQA-Modellen und legt den Grundstein für zukünftige Forschung in diesem Bereich.
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問