Alapfogalmak
RePU活性化関数は、層が深くなると値が爆発または消失し、学習が失敗するという問題を抱えており、本稿ではその原因を有効理論の観点から分析し、問題を克服した新しい活性化関数MRePUを提案する。
Kivonat
修正整流電力ユニットネットワークの失敗原因とその改善策:効果的な理論的視点からの考察
Kim, T., & Kang, M. (2024). Why Rectified Power Unit Networks Fail and How to Improve It: An Effective Theory Perspective. arXiv preprint arXiv:2408.02697v2.
本研究は、深層学習において広く用いられる活性化関数であるReLUの一般化版であるRePU(Rectified Power Unit)が、深層ニューラルネットワークにおいて学習が不安定になる原因を、有効理論の観点から明らかにすることを目的とする。