垂直 federated graph learning (VFGL) は、分散グラフ構造データのプライバシー保護学習に有望ですが、敵対的攻撃に対して脆弱です。本稿では、VFGL に対するクエリ効率の高いハイブリッド敵対的攻撃フレームワーク NA2 を提案します。NA2 は、悪意のあるクライアントがローカルデータを操作してサーバーモデルへの貢献度を高め、サーバーモデルの動作を模倣するシャドウモデルを構築することで、限られたクエリ数で効果的な攻撃を実現します。
トークン スパース化を用いてビジョン Transformer の効率性を高める手法は、モデルの可用性を脅かす敵対的攻撃に対して脆弱である。
ノイズベースの防御は、強化学習を用いた適応型の攻撃者に対して、特に視覚的にノイズの多いクラスにおいて、回避攻撃を助長する可能性がある。
本稿では、敵対者が分類器の能力を観察してデータを操作する、実装時攻撃における堅牢な分類器の学習問題を、悲観的な二段階最適化問題としてモデル化し、その効率的な解法を提案しています。
オープンソースの大規模基盤モデルをファインチューニングしてダウンストリームタスクに利用する場合、そのアクセシビリティが敵対的攻撃のリスクを高める可能性がある。本論文では、セグメント・エニシング・モデル(SAM)を例に挙げ、オープンソースのSAMの情報のみを利用して、SAMからファインチューニングされた様々なダウンストリームモデルに対する敵対的攻撃の実行可能性を検証している。
顔認識システムは、敵対的な攻撃、特に現実の世界で実行される物理的な攻撃に対して脆弱であるため、セキュリティ上の懸念が高まっている。
敵対的攻撃下におけるノンパラメトリック回帰のミニマックス収束率は、攻撃がない場合の標準的なミニマックス収束率と、入力摂動を受けた際の真の回帰関数値の最大偏差の和で表される。
本論文では、データポイズニング攻撃に対する耐性を高める新しい機械学習フレームワークである、「正則化されたロバストで信頼性の高い学習器」を提案しています。このフレームワークは、従来の手法では困難であった、柔軟性の高い仮説クラスに対しても、信頼性の高い予測と、その信頼性を裏付ける理論的保証を提供します。