深層ニューラルネットワークの規模が急速に大きくなるにつれ、計算リソースの需要も高まっている。特に、メモリ使用量の増大が大きな問題となっている。一方で、GPUアーキテクチャはメモリ容量が限られている。
本研究では、バックプロパゲーション時の活性化関数の保存に着目し、プーリングを用いて活性化関数を圧縮することで、メモリ使用量を削減する手法を提案した。フォワード計算は圧縮せずに行い、バックプロパゲーション時にのみ圧縮された活性化関数を使用する。これにより、メモリ使用量を大幅に削減しつつ、精度の低下を最小限に抑えることができる。
実験では、ResNetアーキテクチャを用いて評価を行った。(2x2)の圧縮により、全体のメモリ使用量を29%削減できることを示した。一方で、精度の低下も見られたため、訓練エポック数を増やすことで精度の回復を図った。その結果、わずか1.3%の精度低下で収まることを確認した。
今後は、より大規模なアーキテクチャや、圧縮方法の最適化などに取り組む予定である。本手法により、より小さなGPUでも大規模な深層ニューラルネットワークの訓練が可能になると期待される。
Til et annet språk
fra kildeinnhold
arxiv.org
Viktige innsikter hentet fra
by Dani... klokken arxiv.org 09-19-2024
https://arxiv.org/pdf/2409.11902.pdfDypere Spørsmål