Core Concepts
확산 모델의 학습 동역학에서 발생하는 다양한 불균형을 체계적으로 해결하여 이미지 생성 성능을 크게 향상시켰다.
Abstract
이 논문은 확산 모델의 학습 동역학에서 발생하는 문제점들을 체계적으로 분석하고 해결하는 방법을 제안한다.
먼저 ADM 모델 아키텍처에서 관찰되는 활성화 함수, 가중치, 업데이트 크기의 불균형 문제를 해결하기 위해 다음과 같은 방법을 제안했다:
활성화 함수 크기를 일정하게 유지하는 magnitude-preserving 레이어 설계
가중치 크기를 일정하게 유지하는 강제 가중치 정규화
학습률 감소 스케줄링을 통한 효과적 학습률 제어
이러한 변경을 통해 학습 동역학의 균형을 맞추고 안정화할 수 있었다. 또한 그룹 정규화 레이어를 제거하고 픽셀 정규화로 대체하는 등 아키텍처를 단순화했다.
이와 함께, 학습 후 지수 이동 평균(EMA) 프로파일을 자유롭게 조정할 수 있는 방법을 제안했다. 이를 통해 EMA 길이와 다른 하이퍼파라미터, 아키텍처, 학습 시간 간의 상호작용을 심도 있게 분석할 수 있었다.
최종적으로 제안한 방법론을 적용하여 ImageNet-512 데이터셋에서 이전 최고 기록을 크게 개선한 FID 1.81을 달성했다. 또한 ImageNet-64 데이터셋에서도 이전 최고 기록을 개선한 FID 1.33을 달성했다.
Stats
제안 모델은 ImageNet-512 데이터셋에서 이전 최고 기록 FID 2.41을 1.81로 개선했다.
제안 모델은 ImageNet-64 데이터셋에서 이전 최고 기록 FID 2.22를 1.33으로 개선했다.
제안 모델은 기존 모델 대비 계산 복잡도가 크게 낮은 상태에서 이러한 성능 향상을 달성했다.
Quotes
"확산 모델의 학습 동역학은 여전히 도전적인 문제이며, 작은 실수가 연쇄적으로 누적되어 최종 이미지 품질에 큰 영향을 미칠 수 있다."
"네트워크는 다양한 노이즈 수준, 가우시안 노이즈 실현, 입력 조건에 걸쳐 평균 깨끗한 이미지를 정확하게 추정해야 한다. 이는 무작위화된 훈련 신호로 인해 어려운 과제이다."