核心概念
高次元の滑らかな目標関数を有限の観測点から近似することは、科学計算とその応用分野で重要な課題である。過去10年間で、疎多項式近似法や深層ニューラルネットワーク(DNN)に基づく効率的な方法が大きな進展を遂げてきた。これに伴い、関連する近似理論と分析にも大きな進展があった。
要約
本稿では、この最近の進展を概観する。まず、この問題の現代的な動機付けを説明する。次に、無限次元のバナッハ値の解析関数クラスを定義し、有限データからのこれらの関数の学習可能性の限界を示す。最後に、疎多項式近似とDNNを用いた学習手法について説明する。
疎多項式近似では、重み付きスパース性を利用することで、最適に近い学習率を達成できることを示す。一方、DNNについては、理論的な存在定理と実践的な存在定理を示す。後者は、標準的な訓練手順でも最適に近い学習率が得られることを主張する。これにより、理論と実践の間のギャップを狭めることができる。
統計
高次元関数の学習には、高次元性、関数評価の高コスト、および有限データという課題がある。
目標関数は無限次元のバナッハ値関数であり、複素領域への解析接続性を持つ。
最良s項近似誤差は、係数列のℓpノルムに関して代数的に収束する。
引用
"高次元の滑らかな目標関数を有限の観測点から近似することは、科学計算とその応用分野で重要な課題である。"
"過去10年間で、疎多項式近似法や深層ニューラルネットワーク(DNN)に基づく効率的な方法が大きな進展を遂げてきた。"
"理論と実践の間のギャップを狭めることができる。"