Core Concepts
提案されたアルゴリズムは、MNIST、CIFAR-10、およびTiny-ImageNetデータセットで競争力のある結果を達成しました。
Abstract
Abstract:
提案された正則化関数は、入力空間におけるマージンを最大化することを目指しています。
Lipschitz定数に基づく新しいレイヤーの設計が提案されています。
Introduction:
深層ニューラルネットワークの脆弱性に対処する方法が提案されています。
既存の損失関数は、ロジットマージンを最大化するための代替手法として使用されています。
Our Contribution:
新しい正則化損失関数が提案されています。
Lipschitz定数の保証付き上限値を計算するスケーラブルなメソッドが開発されました。
Related Work:
Adversarial Trainingやその認定バリアントなど、さまざまなアプローチが紹介されています。
ロバストネスとLipschitz規則性に焦点を当てた研究も行われています。
Scalable Estimation of Lipschitz Constants via Loop Transformation (LipLT):
多層ニューラルネットワークのLipschitz定数の上限値を計算する汎用アルゴリズムが提案されました。
単一隠れ層ニューラルネットワークにおけるLipschitz定数に関するSDPフォーミュレーションも議論されています。
Stats
提案されたアルゴリズムは、MNIST、CIFAR-10、およびTiny-ImageNetデータセットで競争力のある結果を達成しました。