核心概念
與調整模型參數的微調方法相比,前綴微調能更好地保留預訓練知識,並在與其他參數高效微調技術(如LoRA、Adapter)結合使用時,能進一步提升模型在下游任務上的表現。
Kim, D., Lee, G., Shim, K., & Shim, B. (2024). Preserving Pre-trained Representation Space: On Effectiveness of Prefix-tuning for Large Multi-modal Models. arXiv preprint arXiv:2411.00029.
本研究旨在探討不同微調策略對大型多模態模型(LMM)預訓練知識保留的影響,並提出一個能兼顧知識保留和下游任務表現的參數高效微調方法。