本論文では、過パラメータ化された2層ニューラルネットワークの学習について分析を行っている。具体的には以下の点を明らかにした:
ℓ1パスノルムによる正則化を用いることで、ニューラルネットワークの幅に依存しない標本複雑度の上界を得ることができる。これは、従来のフロベニウスノルムによる制約では不可能であった。
ℓ1パスノルムによる正則化を用いた場合の関数空間(Barron空間)の計量エントロピーを改善した。従来の結果と比べ、入力次元dの依存性が明確に示された。
出力の無界性を仮定する一般的な設定の下で、過パラメータ化された2層ニューラルネットワークの汎化誤差界を導出した。その結果、従来の結果よりも高速な収束率O(n^{-(d+2)/(2d+2)})を得ることができた。
非凸最適化問題を凸緩和問題として解くアルゴリズムを提案した。低ランクデータに対して効率的に最適解が得られる。
以上の結果から、過パラメータ化された2層ニューラルネットワークの学習において、ノルム制約を用いることで、次元の呪いを回避し、良好な一般化性能を得られることが示された。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問