Khái niệm cốt lõi
深層ニューラルネットワークは、活性化関数が局所的にL1(R)に属し、アフィン関数ではない限り、任意のデータセットを補間できる。さらに、活性化関数が滑らかな場合、補間パラメータの集合は多様体を形成する。
Tóm tắt
本論文では、深層ニューラルネットワークの補間と近似の性質について分析している。
主な内容は以下の通り:
活性化関数が局所的にL1(R)に属し、アフィン関数ではない場合、深層ニューラルネットワークは任意のデータセットを補間できることを示した。さらに、活性化関数が滑らかな場合、補間パラメータの集合は多様体を形成することを示した。
活性化関数が連続で非アフィンであれば、深層ニューラルネットワークは連続関数の空間を密に近似できることを示した。一方、活性化関数がアフィンの場合は近似できないことも示した。
補間点におけるロス関数のヘッシアンの固有値スペクトルについて分析し、d個の正の固有値とn-d個のゼロ固有値を持つことを示した。
補間点を確率的に見つける手法を提案した。活性化関数が非アフィンであれば、入力-隠れ層重みをランダムに初期化し、出力層の最適化を行うことで、補間点を効率的に見つけられることを示した。
Thống kê
深層ニューラルネットワークは、d個のデータ点を補間できる。
補間点におけるロス関数のヘッシアンは、d個の正の固有値とn-d個のゼロ固有値を持つ。
入力-隠れ層重みをランダムに初期化し、出力層の最適化を行うことで、補間点を効率的に見つけられる。
Trích dẫn
"深層ニューラルネットワークは、活性化関数が局所的にL1(R)に属し、アフィン関数ではない限り、任意のデータセットを補間できる。"
"活性化関数が滑らかな場合、補間パラメータの集合は多様体を形成する。"