Core Concepts
本研究では、深層ニューラルネットワークの計算コストを軽減するために、エントロピーベースのプルーニング手法 NEPENTHE を提案する。NEPENTHE は、層のエントロピーが低い層を選択的に削除することで、ネットワークの深さを効果的に削減できる。
Abstract
本研究では、深層ニューラルネットワークの計算コストを軽減するために、エントロピーベースのプルーニング手法 NEPENTHE を提案している。
まず、ニューロンの出力エントロピーを定義し、構造化されていないプルーニングがこのエントロピーを自然に低減することを理論的に示した。この知見に基づき、NEPENTHE では、層のエントロピーが低い層を選択的に削除することで、ネットワークの深さを効果的に削減できる。
具体的には、NEPENTHE は以下のようなステップで動作する:
初期モデルを学習する
各層のエントロピーを計算する
層のエントロピーに応じて、各層のプルーニング予算を決定する
予算に従って各層のパラメータをプルーニングする
プルーニング後のモデルを再学習する
性能が一定の閾値を下回るまで、上記のステップを繰り返す
実験では、MobileNet、Swin-T、ResNet-18などの人気アーキテクチャを用いて評価を行った。その結果、NEPENTHE は性能を大きく損なうことなく、複数の層を削除できることを示した。これは、従来手法と比べて優れた深さ削減能力を持つことを意味している。
Stats
層の深さを削減することで、深層ニューラルネットワークの計算コストを大幅に軽減できる。