本文提出了一種在深度神經網路訓練過程中壓縮激活圖的方法,以減少記憶體消耗。具體來說,在前向傳播過程中,激活圖不做任何壓縮,但在保存激活圖以用於反向傳播時,會對其進行池化壓縮。這樣可以大幅減少記憶體需求,同時不會影響梯度的準確性,只會略微降低權重更新的精度。
實驗結果表明,在ResNet18模型上,使用2x2池化可以將總體記憶體消耗減少29%,而4x4池化可以減少36%。通過延長訓練時間,2x2壓縮的模型可以將準確率降低控制在1.3%以內。
作者還分析了不同層對壓縮的敏感性,發現下採樣層相對更加穩定。未來工作包括在更多模型架構上驗證該方法,並探索自適應的壓縮策略。
Til et andet sprog
fra kildeindhold
arxiv.org
Vigtigste indsigter udtrukket fra
by Dani... kl. arxiv.org 09-19-2024
https://arxiv.org/pdf/2409.11902.pdfDybere Forespørgsler