本論文は、Deep Neural Network (DNN)の圧縮手法の1つとして、低ランク誘導トレーニング(LoRITa)を提案している。
LoRITaの特徴は以下の通り:
実験では、Fully Connected Network (FCN)、Convolutional Neural Network (CNN)、Vision Transformer (ViT)のモデルに対してLoRIタを適用し、従来手法と比較して優れた圧縮性能を示した。特に、ViTモデルにおいて大幅な圧縮が可能であることを確認した。
また、理論的な分析から、重み減衰正則化がLoRIタによる低ランク化を自然に促進することを示した。
Ke Bahasa Lain
dari konten sumber
arxiv.org
Wawasan Utama Disaring Dari
by Xitong Zhang... pada arxiv.org 05-07-2024
https://arxiv.org/pdf/2405.03089.pdfPertanyaan yang Lebih Dalam