Core Concepts
신경망을 활용한 학습된 리프팅 기반 변환 구조의 중요성과 성능 평가
Abstract
논문에서는 신경망을 사용하여 리프팅 기반 웨이블릿 형상 변환에 대한 연구를 제공합니다.
다양한 리프팅 단계 배열과 학습된 리프팅 연산자의 다양한 네트워크 아키텍처를 탐구합니다.
학습된 리프팅 단계 수, 채널 수, 레이어 수 및 커널 지원의 영향을 조사합니다.
실험 결과는 고정 리프팅 단계를 유지하는 것이 유리하다는 것을 보여줍니다.
더 많은 채널을 사용하는 것이 압축 성능에 도움이 될 수 있다는 것을 입증합니다.
제안된 웨이블릿 형상 변환은 JPEG 2000과 비교하여 25% 이상의 비트율 절약을 달성합니다.
Stats
학습된 리프팅 단계 수, 채널 수, 레이어 수 및 커널 지원에 대한 중요한 수치가 없습니다.
Quotes
"The key idea of learned wavelet-like transforms is to replace or augment fixed lifting operators in the conventional wavelet transform with learned neural networks."
"The hybrid lifting structure performs best amongst all investigated structures, achieving 26.8% averaged bit-rate savings over the LeGall 5/3 wavelet transform."