Core Concepts
ブラックボックス環境下で物体検出モデルを欺くために、事前に収集したデータを利用して、目標画像に追加の物体を生成する攻撃手法を提案する。
Abstract
本論文は、物体検出モデルに対するブラックボックス型の敵対的攻撃の実現可能性を評価している。
攻撃の目的は、追加の幽霊物体を生成することで、推論時間を増大させることにある。
攻撃者は事前に収集したデータを利用し、目標画像に物体を追加することで、攻撃を実現する。
提案手法は、「後から攻撃する前に盗む」というアプローチを採用している。
実験結果から、提案手法は様々な物体検出モデルおよびGoogleのVision APIに対して成功裏に攻撃を行えることが示された。
さらに、1回の攻撃あたりのコストが1ドル未満と非常に低コストであることも明らかになった。
Stats
提案手法を用いると、YOLOv8モデルに対して、ε=32の条件下で81%の攻撃成功率が得られる。
提案手法を用いた場合の1回の攻撃コストは1ドル未満である。
Quotes
"ブラックボックス環境下で物体検出モデルを欺くために、事前に収集したデータを利用して、目標画像に追加の物体を生成する攻撃手法を提案する。"
"実験結果から、提案手法は様々な物体検出モデルおよびGoogleのVision APIに対して成功裏に攻撃を行えることが示された。"
"さらに、1回の攻撃あたりのコストが1ドル未満と非常に低コストであることも明らかになった。"