本論文は、Deep Neural Network (DNN)の圧縮手法の1つとして、低ランク誘導トレーニング(LoRITa)を提案している。
LoRITaの特徴は以下の通り:
実験では、Fully Connected Network (FCN)、Convolutional Neural Network (CNN)、Vision Transformer (ViT)のモデルに対してLoRIタを適用し、従来手法と比較して優れた圧縮性能を示した。特に、ViTモデルにおいて大幅な圧縮が可能であることを確認した。
また、理論的な分析から、重み減衰正則化がLoRIタによる低ランク化を自然に促進することを示した。
Egy másik nyelvre
a forrásanyagból
arxiv.org
Mélyebb kérdések