深層学習モデルは自然サンプルに対しては安定しているが、対抗的サンプルに対しては不安定であることが示された。この不安定性は、モデルの決定境界の幾何学的特性に起因すると考えられる。
背景バイアスの影響を受けずに深層ニューラルネットワークの一般化性能を向上させるため、ISNetアーキテクチャの訓練時間を大幅に短縮した新しい手法を提案する。