Core Concepts
대형 비전 기반 모델을 혼합 정밀도 양자화된 슈퍼넷으로 효율적으로 미세 조정하는 방법을 제안한다. 저순위 어댑터와 점진적 학습 전략을 사용하여 메모리 효율적인 슈퍼넷 학습을 달성한다.
Abstract
이 논문은 대형 비전 기반 모델(VFM)을 혼합 정밀도 양자화된 슈퍼넷으로 효율적으로 미세 조정하는 방법을 제안한다.
효과적인 검색 공간 설계:
입력 해상도, 특징 크기, 깊이, 임베딩 차원 등 다양한 연산자를 비교하여 VFM 미세 조정에 적합한 검색 공간을 설계한다.
실험 결과, 입력 해상도, 깊이, 비트폭 등의 연산자가 성능과 비트 연산 감소 간 좋은 균형을 보인다.
저순위 어댑터 기반 메모리 효율적인 슈퍼넷 학습:
정규 저순위 어댑터로는 초저비트폭 서브넷 학습이 어려워 선택적 및 다중경로 저순위 어댑터 구조를 제안한다.
양자화 인식 저순위 어댑터를 도입하여 혼합 정밀도 검색 공간을 효율적으로 학습한다.
점진적 학습 전략을 통해 초저비트폭 서브넷의 성능을 향상시킨다.
실험 결과:
제안 방법은 기존 방법 대비 약 1.69% 및 3.12% 성능 향상을 보이며, 약 18% 메모리 사용량 감소를 달성한다.
검색된 서브넷은 비트 연산을 약 95% 감소시키면서도 성능 저하 없이 우수한 결과를 보인다.
Stats
제안 방법은 기존 방법 대비 약 1.69% 및 3.12% 성능 향상을 보인다.
제안 방법은 약 18% 메모리 사용량 감소를 달성한다.
검색된 서브넷은 비트 연산을 약 95% 감소시킨다.
Quotes
"대형 비전 기반 모델(VFM)을 혼합 정밀도 양자화된 슈퍼넷으로 효율적으로 미세 조정하는 방법을 제안한다."
"저순위 어댑터와 점진적 학습 전략을 사용하여 메모리 효율적인 슈퍼넷 학습을 달성한다."
"제안 방법은 기존 방법 대비 약 1.69% 및 3.12% 성능 향상을 보이며, 약 18% 메모리 사용량 감소를 달성한다."