MMLSの安全性に関する重要な洞察と提案を探る。
AIモデルの物体検出と分類における敵対的パッチ攻撃に対する耐久性向上の重要性を強調し、Inpaintingなどの防御戦略が有効であることを示唆。
開発者が事前に特定しなかった障害モードに対処するために、潜在的敵対的トレーニング(LAT)は有効なツールであることを示す。
現在のウォーターマークスキームは以前よりも脆弱であり、スプーフィングとスクラビング攻撃が実質的に可能であることを示す。