Core Concepts
十分に滑らかな関数は、ランダムに生成された重みとバイアスを持つ単一隠れ層のReLUネットワークによって任意の精度で近似できる。
Abstract
本論文では、単一隠れ層のReLUネットワークを用いて滑らかな関数を任意の精度で近似できることを示した。
重みとバイアスをランダムに生成し、出力層のみを学習する構造を考える。
関数の滑らかさに応じて、ニューロン数mに対して誤差がO(m^(-1/2))で減少することを証明した。
任意の一様分布に従ってパラメータを生成しても、この結果が成り立つ。
モデル規範型適応制御の問題に適用し、必要な精度を達成するためのニューロン数を定量化した。
Stats
滑らかさ係数ρは、関数の滑らかさを表す重要なパラメータである。
Sn-1の面積An-1は、次元nが大きくなるにつれて指数関数的に減少する。
Quotes
ランダムに生成された重みとバイアスを持つ単一隠れ層のReLUネットワークは、十分に滑らかな関数を任意の精度で近似できる。