本論文では、ニューラルネットワーク(NN)を反復写像として再定式化することで、従来のNN アーキテクチャに内在する原理と仮定を研究している。
まず、伝統的な多層パーセプトロン(MLP)アーキテクチャと再帰型ニューラルネットワーク(RNN)アーキテクチャを反復写像の観点から分析する。RNNは本質的に反復写像であるが、MLPも反復写像として表現できることを示す。
この結果は重要である。なぜなら、RNNの汎用性は以前から示されており、1990年代からRNNのチューリング完全性が理解されてきたからである。理論的な考察に加えて、多くの一般的なNNが反復写像として表現できることを示す。この反復写像の視点は、NNの理論的および実用的側面を明らかにする洞察を与える。
具体的には以下の通り:
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Quincy Hersh... a las arxiv.org 04-02-2024
https://arxiv.org/pdf/2404.00880.pdfConsultas más profundas