Core Concepts
Transfer Entropyを用いることで、CNNの学習プロセスを高速化できる。ただし、計算コストの増加を伴う。
Abstract
本研究では、Convolutional Neural Network (CNN)アーキテクチャの学習メカニズムにTransfer Entropy (TE)フィードバックを統合する新しい手法を提案している。
主な内容は以下の通り:
TEは、ニューロン間の情報伝達の方向性と量を定量化するために使用される。
提案手法では、最後の2つの全結合層のニューロン対間のTEを計算し、バックプロパゲーションの重み更新に活用する。
TEフィードバックを加えることで、学習プロセスが高速化される(エポック数が減少)。一方で、各エポックの計算コストが増加する。
実験の結果、最後の2つの全結合層のニューロンの一部集合のTEを考慮するのが、計算コストと精度のトレードオフの観点から効率的であることが分かった。
TEは学習プロセスの安定化にも寄与する。各エポックの初めにTEの値が大きくなる傾向があるが、学習が進むにつれて徐々に小さくなっていく。
CNNの解釈可能性向上への示唆として、ニューロン間の情報伝達の統計的側面を活用できる可能性が示された。
Stats
各エポックの初めにTEの値が大きくなる傾向がある
学習が進むにつれて、TEの値は徐々に小さくなっていく