本研究では、機械学習モデルのトレーニング時のエネルギー消費を削減するための手法を検討した。具体的には、NVIDIA GPUのMixed Precisionを活用し、バッチサイズやニューロン数などのハイパーパラメータを最適化することで、消費電力を削減することができた。
まず、ベンチマークとして32ビットの浮動小数点演算を使ったモデルトレーニングを行い、消費電力を測定した。次に、Mixed Precisionを使ったモデルトレーニングを行い、ハイパーパラメータを変更しながら消費電力の変化を確認した。
その結果、Mixed Precisionを使うことで、ベンチマークと比べて7~11Wの消費電力の削減が確認できた。また、ニューロン数を増やすことで、さらに3Wの削減効果が得られた。
消費電力の削減に伴い、カーボンフットプリントも同様に削減されることが示された。ただし、ハイパーパラメータの設定によっては、ハードウェアのパフォーマンスに悪影響を及ぼす可能性があるため、適切な設定が重要である。
統計分析の結果、ベンチマークと実験結果の間に有意な差は見られなかったが、GPUクラスタを使った大規模な実験を行えば、サンプルサイズを大きくできるため、より詳細な分析が可能になると考えられる。
לשפה אחרת
מתוכן המקור
arxiv.org
תובנות מפתח מזוקקות מ:
by Andrew Anton... ב- arxiv.org 09-13-2024
https://arxiv.org/pdf/2409.07853.pdfשאלות מעמיקות