Główne pojęcia
COMQ는 레이어 단위 재구성 오차를 좌표 단위로 최소화하는 혁신적인 포스트 트레이닝 양자화 알고리즘으로, 백프로퍼게이션 없이 정확도 손실을 최소화하며 효율적인 모델 압축을 달성한다.
Streszczenie
COMQ는 포스트 트레이닝 양자화를 위한 혁신적인 알고리즘으로, 레이어 단위 재구성 오차를 좌표 단위로 최소화하는 방식을 사용한다. 기존 방식과 달리 백프로퍼게이션이 필요 없어 계산 복잡도가 낮으며, 가중치 양자화 시 정확도 손실을 최소화할 수 있다.
구체적으로 COMQ는 가중치 행렬을 부동소수점 스칼라와 정수 비트코드로 분해하고, 이를 좌표 단위로 순차적으로 업데이트한다. 이때 변수 업데이트 순서를 그리디 방식으로 설계하여 성능을 더욱 향상시킨다. 실험 결과, COMQ는 CNN과 Vision Transformer에서 기존 방식 대비 우수한 성능을 보였으며, 특히 4비트 및 3비트 양자화에서 탁월한 결과를 달성했다.
COMQ의 핵심 특징은 다음과 같다:
- 백프로퍼게이션이 필요 없어 계산 복잡도가 낮음
- 레이어 단위 재구성 오차를 좌표 단위로 최소화하여 정확도 손실 최소화
- 변수 업데이트 순서를 그리디 방식으로 설계하여 성능 향상
- CNN과 Vision Transformer에서 우수한 성능 달성, 특히 저비트 양자화에서 탁월
Statystyki
4비트 Vision Transformer에서 Top-1 정확도가 81.40%로 원본 대비 1% 미만의 손실만 발생
4비트 CNN에서 Top-1 정확도가 75.46%로 원본 대비 0.3% 미만의 손실만 발생
Cytaty
"COMQ는 백프로퍼게이션이 필요 없어 계산 복잡도가 낮으며, 레이어 단위 재구성 오차를 좌표 단위로 최소화하여 정확도 손실을 최소화할 수 있다."
"COMQ는 변수 업데이트 순서를 그리디 방식으로 설계하여 성능을 더욱 향상시켰다."