toplogo
サインイン

画像品質評価モデルに対するブラックボックス敵対攻撃


核心概念
No-Reference Image Quality Assessment(NR-IQA)モデルに対するブラックボックス敵対攻撃の探求と効果的な手法の開発。
要約
この論文は、NR-IQAモデルにおけるブラックボックス敵対攻撃に初めて取り組み、効率的かつ効果的な攻撃手法を開発しています。研究では、オリジナル画像とその改ざんされた画像の品質スコアの予測値の最大偏差を最大化することを目指し、Bi-directional損失関数を設計しました。実験結果から、提案された攻撃手法がすべての評価されたNR-IQAモデルに影響を与えることが示されました。また、生成された改ざんは移譲可能でないことが確認され、異なるIQAモデルの特性を調査するために役立つことが示唆されました。
統計
NR-IQAモデルはすべて提案された攻撃方法に脆弱である。 生成された改ざんは移譲不可能であり、異なるIQAモデルの特性を調査することができる。
引用

抽出されたキーインサイト

by Yu Ran,Ao-Xi... 場所 arxiv.org 02-29-2024

https://arxiv.org/pdf/2402.17533.pdf
Black-box Adversarial Attacks Against Image Quality Assessment Models

深掘り質問

どうしてDNNs-based NR-IQAアプローチは敵対的例に脆弱ですか?

DNNs-based NR-IQAアプローチは敵対的例に脆弱な理由はいくつかあります。まず、DNNモデルは入力画像の微小な変更に対しても非常に敏感であり、その予測結果が大きく変化する可能性があります。このような微小な変更でも人間の目では区別が難しいため、攻撃者が不可視の摂動を加えることでモデルをだますことが容易になります。さらに、NR-IQAタスク自体が連続値(実数)の品質スコアを出力する回帰タスクであるため、誤った方向や量の摂動でも品質評価結果を大きく歪める可能性がある点も影響しています。 また、本研究ではBi-directional loss関数を導入しました。この新しい損失関数は原画像とそれに対応する敵対的例の推定品質スコアの差異を最大化するよう設計されており、これによって攻撃手法全体の効果的な運用が可能となりました。
0
visual_icon
generate_icon
translate_icon
scholar_search_icon
star