Core Concepts
ヒステリシスを利用した新しい活性化関数HeLUは、勾配消失問題を抑制し、推論時の計算コストを最小限に抑えながら、ReLUを超える性能を実現する。
本論文は、ディープニューラルネットワーク(DNN)の推論効率を向上させるための新しい活性化関数、Hysteresis Rectified Linear Unit (HeLU) を提案する。HeLUは、従来のReLUが抱える「dying ReLU」問題、すなわち学習中にニューロンが活性化せずゼロ出力のままになる問題を、ヒステリシスを利用することで効果的に抑制する。
DNNモデルの性能向上に伴い、エッジデバイスへの展開における処理速度とエネルギー消費の削減が課題となっている。従来のアプローチとしては、重要度の低い重みや特徴を削除するプルーニングや、重みや活性化の精度を下げる量子化などが挙げられる。本研究では、活性化関数というDNNの基本的な構成要素に焦点を当て、その効率化による更なる性能向上を目指す。