ニューラルアーキテクチャの学習効率を測定するためのフレームワーク
ニューラルアーキテクチャの学習効率は、学習の進行に伴って低下し、特定のモデルと学習タスクに対する学習停止基準によって変化する。また、学習停止基準、学習効率、モデルサイズ、学習効率の間には非線形の関係がある。さらに、過剰学習がニューラルアーキテクチャの学習効率の測定に混同効果を及ぼす可能性がある。相対的な学習効率については、CNNがBCNNよりも両データセットで効率的であることが示された。一般的に、学習タスクが複雑になるにつれ、異なるアーキテクチャ間の相対的な学習効率の差が顕著になる。