深層ニューラルネットワークの規模が急速に大きくなるにつれ、計算リソースの需要も高まっている。特に、メモリ使用量の増大が大きな問題となっている。一方で、GPUアーキテクチャはメモリ容量が限られている。
本研究では、バックプロパゲーション時の活性化関数の保存に着目し、プーリングを用いて活性化関数を圧縮することで、メモリ使用量を削減する手法を提案した。フォワード計算は圧縮せずに行い、バックプロパゲーション時にのみ圧縮された活性化関数を使用する。これにより、メモリ使用量を大幅に削減しつつ、精度の低下を最小限に抑えることができる。
実験では、ResNetアーキテクチャを用いて評価を行った。(2x2)の圧縮により、全体のメモリ使用量を29%削減できることを示した。一方で、精度の低下も見られたため、訓練エポック数を増やすことで精度の回復を図った。その結果、わずか1.3%の精度低下で収まることを確認した。
今後は、より大規模なアーキテクチャや、圧縮方法の最適化などに取り組む予定である。本手法により、より小さなGPUでも大規模な深層ニューラルネットワークの訓練が可能になると期待される。
Egy másik nyelvre
a forrásanyagból
arxiv.org
Mélyebb kérdések