本稿では、多変量ガウス分布モデルにおける敵対的攻撃の枠組みを提案し、攻撃者が条件付き推論を撹乱する方法と、その影響について考察する。
本稿では、分散学習システムの新たな脆弱性として、モデルのエッジ部分(初期層)へのアクセスのみで効果的なユニバーサル敵対的攻撃が可能であることを示す。
本稿では、学習済み画像圧縮(LIC)を用いた画像分類システム(LICCS)に対する敵対的攻撃について調査し、圧縮レベルやLICモデルのアーキテクチャが異なる場合でも有効な、転移可能な敵対的摂動を生成する手法を提案する。
垂直 federated graph learning (VFGL) は、分散グラフ構造データのプライバシー保護学習に有望ですが、敵対的攻撃に対して脆弱です。本稿では、VFGL に対するクエリ効率の高いハイブリッド敵対的攻撃フレームワーク NA2 を提案します。NA2 は、悪意のあるクライアントがローカルデータを操作してサーバーモデルへの貢献度を高め、サーバーモデルの動作を模倣するシャドウモデルを構築することで、限られたクエリ数で効果的な攻撃を実現します。
トークン スパース化を用いてビジョン Transformer の効率性を高める手法は、モデルの可用性を脅かす敵対的攻撃に対して脆弱である。
ノイズベースの防御は、強化学習を用いた適応型の攻撃者に対して、特に視覚的にノイズの多いクラスにおいて、回避攻撃を助長する可能性がある。
本稿では、敵対者が分類器の能力を観察してデータを操作する、実装時攻撃における堅牢な分類器の学習問題を、悲観的な二段階最適化問題としてモデル化し、その効率的な解法を提案しています。
オープンソースの大規模基盤モデルをファインチューニングしてダウンストリームタスクに利用する場合、そのアクセシビリティが敵対的攻撃のリスクを高める可能性がある。本論文では、セグメント・エニシング・モデル(SAM)を例に挙げ、オープンソースのSAMの情報のみを利用して、SAMからファインチューニングされた様々なダウンストリームモデルに対する敵対的攻撃の実行可能性を検証している。
顔認識システムは、敵対的な攻撃、特に現実の世界で実行される物理的な攻撃に対して脆弱であるため、セキュリティ上の懸念が高まっている。
敵対的攻撃下におけるノンパラメトリック回帰のミニマックス収束率は、攻撃がない場合の標準的なミニマックス収束率と、入力摂動を受けた際の真の回帰関数値の最大偏差の和で表される。