著者は、ニューラルネットワークが完全な補間を実現しながらも一般化する方法についての基本的な質問に焦点を当てています。
研究は、回帰と最小二乗法(重みのℓ2)に焦点を当て、1次元の二層ReLUネットワークで過学習が抑制されることを示しています。
ニューラルネットワークでの過学習挙動やリスク評価に関する理解が不十分であることが強調されています。
Introduction
過学習の性質や挙動に関する最近の認識とその理論的研究への関心が高まっています。
理論的な研究は主に線形およびカーネルメソッドまたは既に線形分離可能なデータセット向けです。
Why min norm?
最小ℓ2正則化された非常に大きな重み付き正規化されたニューラルネットワークは、補間学習に自然です。
重み付け減衰なしでも、勾配降下法で最適化することは低ℓ2正則化への暗黙的バイアスと関連しています。
Noisy interpolation learning.
ニューラルネットワークで騒々しいデータセットを用いた補間学習を考慮しています。
データ次元がサンプルサイズと共に増加しない場合でも、非一次元的インターポレーションデータ分布を考慮しています。
Data Extraction:
Hastie et al. [2020]やBelkin et al. [2020]など多くの論文から引用されており、高次元設定で最小ℓ2正則化された予測器(ridgeless regression)や騒々しい最小ℓ1予測器(Basis Persuit)も考慮されています。
Noisy Interpolation Learning with Shallow Univariate ReLU Networks
Stats
Mallinar et al. [2022] conducted simulations with neural networks and observed “tempered” overfitting: the asymptotic risk does not approach the Bayes-optimal risk (there is no consistency), but neither does it diverge to infinity catastrophically.
Quotes
"Understanding these subtleties is crucial before moving on to more complex models."
"Our work is the first to study noisy interpolation learning with min-norm ReLU networks for regression."