ニューラルネットワークアーキテクチャの種類と規模によって、学習と推論のエネルギー消費に大きな違いがあることを明らかにした。特に、MLP/RNNとCNN/CRNNでは異なる傾向が見られた。また、FLOPsや学習パラメータ数だけでは、エネルギー消費を正確に推定できないことを示した。一方で、GPUの利用率とエネルギー消費の強い相関が見られた。