Kernkonzepte
깊은 생성 접근법은 구조 선행 정보를 도입함으로써 이미지 복원에서 상당한 진전을 이루었다. 그러나 구조 재구성 과정에서 이미지 텍스처와의 적절한 상호작용이 부족하여, 현재 솔루션은 큰 손상 영역을 처리하는 데 능숙하지 않고 일반적으로 왜곡된 결과를 초래한다. 본 논문에서는 구조 제약 텍스처 합성과 텍스처 유도 구조 재구성을 결합하는 새로운 두 개의 스트림 네트워크를 제안한다. 이를 통해 두 가지 작업이 서로 더 잘 활용되어 더 설득력 있는 생성이 가능해진다.
Zusammenfassung
본 논문은 이미지 복원을 위한 새로운 두 개의 스트림 네트워크를 제안한다. 이 네트워크는 구조 제약 텍스처 합성과 텍스처 유도 구조 재구성을 결합하여 모델링한다. 이를 통해 두 가지 작업이 서로 더 잘 활용되어 더 설득력 있는 결과를 생성할 수 있다.
구체적으로:
- 구조 제약 텍스처 합성 스트림과 텍스처 유도 구조 재구성 스트림을 병렬로 모델링한다.
- 양방향 게이트 특징 융합(Bi-GFF) 모듈을 도입하여 구조와 텍스처 정보를 교환하고 결합한다.
- 문맥 특징 집계(CFA) 모듈을 개발하여 영역 유사성 학습과 다중 스케일 특징 집계를 통해 생성된 내용을 정제한다.
실험 결과, 제안 방법은 CelebA, Paris StreetView, Places2 데이터셋에서 기존 최신 방법들을 능가하는 성능을 보였다.
Statistiken
큰 손상 영역을 처리하는 데 어려움이 있다.
일반적으로 왜곡된 결과를 초래한다.
Zitate
"깊은 생성 접근법은 구조 선행 정보를 도입함으로써 이미지 복원에서 상당한 진전을 이루었다."
"그러나 구조 재구성 과정에서 이미지 텍스처와의 적절한 상호작용이 부족하여, 현재 솔루션은 큰 손상 영역을 처리하는 데 능숙하지 않고 일반적으로 왜곡된 결과를 초래한다."