本論文では、2層のニューラルネットワークの最適化に正則化ガウス・ニュートン法を適用する。特に、一般化自己共役(GSC)関数クラスによる正則化を考慮する。この手法は、最適化性能と一般化性能のバランスを取るための適応的な学習率選択を提供する。
論文の主な内容は以下の通り:
ガウス・ニュートン法とニューラルタンジェントカーネル回帰の関係を説明し、過剰パラメータ化されたニューラルネットワークの最適化における重要性を示す。
GSC関数クラスによる正則化を導入し、その性質を利用して、過剰パラメータ化されたニューラルネットワークの最適化における収束性を分析する。
数値実験により、GSC正則化が過剰パラメータ化されたニューラルネットワークの一般化性能を向上させることを示す。特に、正則化強度とスムージングパラメータの適切な選択が重要であることを明らかにする。
To Another Language
from source content
arxiv.org
Ключові висновки, отримані з
by Adeyemi D. A... о arxiv.org 04-24-2024
https://arxiv.org/pdf/2404.14875.pdfГлибші Запити