Core Concepts
低ランク誘導トレーニング(LoRITa)は、線形層の合成を通じて低ランク性を促進し、特異値打ち切りを用いて圧縮を行う新しい手法である。事前学習モデルの初期化や圧縮ランクの指定を必要とせず、標準的な重み減衰正則化のみで実現できる。
Abstract
本論文は、Deep Neural Network (DNN)の圧縮手法の1つとして、低ランク誘導トレーニング(LoRITa)を提案している。
LoRITaの特徴は以下の通り:
線形層の合成を通じて低ランク性を促進する。
訓練後に特異値分解(SVD)による打ち切りを行い、圧縮を実現する。
事前学習モデルの初期化や圧縮ランクの指定を必要としない。
標準的な重み減衰正則化のみを用いて実現できる。
実験では、Fully Connected Network (FCN)、Convolutional Neural Network (CNN)、Vision Transformer (ViT)のモデルに対してLoRIタを適用し、従来手法と比較して優れた圧縮性能を示した。特に、ViTモデルにおいて大幅な圧縮が可能であることを確認した。
また、理論的な分析から、重み減衰正則化がLoRIタによる低ランク化を自然に促進することを示した。
Stats
畳み込み層の計算量は、従来の O(FHFW FDM) から O(FHFW FDr) に削減できる。
畳み込み層のパラメータ数は、同様に大幅に削減できる。