Core Concepts
본 연구에서는 그룹 기반 자기회귀 트랜스포머 모델인 GroupedMixer를 제안하여 기존 트랜스포머 기반 엔트로피 모델보다 우수한 압축 성능과 빠른 코딩 속도를 달성하였다.
Abstract
본 논문에서는 학습 기반 이미지 압축을 위한 새로운 엔트로피 모델인 GroupedMixer를 제안한다. GroupedMixer는 다음과 같은 특징을 가진다:
공간-채널 차원으로 잠재 변수를 그룹화하여 그룹 단위 자기회귀 방식을 사용한다. 이를 통해 전역적인 문맥 정보를 효율적으로 활용할 수 있다.
그룹 내부 토큰 혼합기와 그룹 간 토큰 혼합기를 교대로 적용하여 전역적인 문맥 정보를 통합한다. 이는 기존 트랜스포머 기반 엔트로피 모델보다 계산 복잡도를 크게 낮출 수 있다.
문맥 캐시 최적화 기법을 도입하여 추론 속도를 더욱 가속화한다. 이를 통해 1초 미만의 빠른 압축 속도를 달성할 수 있다.
실험 결과, GroupedMixer는 기존 최신 방법들에 비해 Kodak, CLIC'21 Test, Tecnick 데이터셋에서 각각 17.84%, 19.77%, 22.56%의 BD-Rate 성능 향상을 보였다. 또한 빠른 압축 속도와 적은 파라미터 수를 달성하였다.
Stats
제안한 GroupedMixer 모델은 Kodak 데이터셋에서 VVC 대비 17.84%의 BD-Rate 감소를 달성했다.
GroupedMixer-Large 모델은 CLIC'21 Test 데이터셋에서 19.77%, Tecnick 데이터셋에서 22.56%의 BD-Rate 감소를 보였다.
GroupedMixer 모델의 총 인코딩/디코딩 시간은 각각 0.27초, 0.26초로 매우 빠른 편이다.
Quotes
"본 연구에서는 그룹 기반 자기회귀 트랜스포머 모델인 GroupedMixer를 제안하여 기존 트랜스포머 기반 엔트로피 모델보다 우수한 압축 성능과 빠른 코딩 속도를 달성하였다."
"GroupedMixer는 공간-채널 차원으로 잠재 변수를 그룹화하여 그룹 단위 자기회귀 방식을 사용하고, 그룹 내부 토큰 혼합기와 그룹 간 토큰 혼합기를 교대로 적용하여 전역적인 문맥 정보를 통합한다."
"실험 결과, GroupedMixer는 기존 최신 방법들에 비해 Kodak, CLIC'21 Test, Tecnick 데이터셋에서 각각 17.84%, 19.77%, 22.56%의 BD-Rate 성능 향상을 보였다."