Core Concepts
본 연구는 대규모 비전 및 언어 모델에 대한 효율적인 원샷 구조적 압축 기법을 제안한다. 이를 위해 층 단위 재구성 목적함수와 효율적인 조합 최적화 알고리즘을 활용한다. 이를 통해 기존 방법 대비 성능 향상과 더불어 계산 및 메모리 효율성을 크게 개선할 수 있다.
Abstract
본 연구는 대규모 비전 및 언어 모델에 대한 효율적인 원샷 구조적 압축 기법을 제안한다. 기존 방법들은 모델 재학습이 필요하거나 계산/메모리 효율성이 낮은 문제가 있었다.
이를 해결하기 위해 본 연구는 다음과 같은 핵심 기여를 제안한다:
층 단위 재구성 목적함수와 조합 최적화 문제 정식화를 통해 문제 규모를 크게 축소한다.
효율적인 지역 조합 최적화 알고리즘을 개발하여 고품질의 압축 솔루션을 빠르게 찾는다.
실험 결과, 제안 방법은 기존 최신 방법 대비 성능 향상과 더불어 계산 및 메모리 효율성을 크게 개선할 수 있다. 특히 30억 규모의 대규모 언어 모델에 대해서도 효과적으로 적용 가능하다.
Stats
제안 방법은 OPT-2.7B 모델에 대해 기존 최신 방법 대비 125배 낮은 퍼플렉서티와 2배 빠른 추론 속도를 달성할 수 있다.
제안 방법은 기존 최신 방법 대비 6-8배 더 빠른 압축 속도를 보인다.
Quotes
"OSSCAR은 대규모 비전 및 언어 모델에 대한 효율적인 원샷 구조적 압축 기법을 제안한다."
"제안 방법은 층 단위 재구성 목적함수와 효율적인 조합 최적화 알고리즘을 활용하여 기존 방법 대비 성능 향상과 더불어 계산 및 메모리 효율성을 크게 개선할 수 있다."