本論文では、ニューラルネットワーク(NN)を反復写像として再定式化することで、従来のNN アーキテクチャに内在する原理と仮定を研究している。
まず、伝統的な多層パーセプトロン(MLP)アーキテクチャと再帰型ニューラルネットワーク(RNN)アーキテクチャを反復写像の観点から分析する。RNNは本質的に反復写像であるが、MLPも反復写像として表現できることを示す。
この結果は重要である。なぜなら、RNNの汎用性は以前から示されており、1990年代からRNNのチューリング完全性が理解されてきたからである。理論的な考察に加えて、多くの一般的なNNが反復写像として表現できることを示す。この反復写像の視点は、NNの理論的および実用的側面を明らかにする洞察を与える。
具体的には以下の通り:
Til et andet sprog
fra kildeindhold
arxiv.org
Vigtigste indsigter udtrukket fra
by Quincy Hersh... kl. arxiv.org 04-02-2024
https://arxiv.org/pdf/2404.00880.pdfDybere Forespørgsler