본 논문에서는 확산 모델의 단계별 샘플링 과정을 단일 단계로 압축하여 이미지 생성 속도를 향상시키는 Physics Informed Distillation (PID)이라는 새로운 지식 증류 기법을 제안합니다.
Physics Informed Distillation (PID), inspired by Physics Informed Neural Networks (PINNs), enables single-step image generation with diffusion models by training a student model to approximate the solution trajectory of the teacher model's probability flow ODE, achieving comparable performance to state-of-the-art distillation methods without requiring synthetic data generation.
본 논문에서는 사전 학습된 확산 모델을 단일 단계 생성 모델로 증류하여 원본 모델의 샘플 생성 능력을 거의 그대로 유지하면서도 데이터 없이 증류를 위한 학습 샘플이 필요 없는 새로운 접근 방식인 점수 암시적 매칭(SIM)을 제시합니다.
Score Implicit Matching (SIM) is a novel distillation technique that enables the creation of highly efficient, one-step image generators from pre-trained diffusion models, achieving comparable quality while significantly reducing computational cost.
VDD is a novel method that distills pre-trained diffusion models into Mixture of Experts (MoE), combining the expressiveness of diffusion models with the efficiency and tractability of MoEs for behavior learning tasks.
SiDA(적대적 손실을 갖춘 점수 동일성 증류)는 실제 이미지와 적대적 손실을 통합하여 생성 품질을 향상시키고 증류 효율성을 개선하는 새로운 단일 단계 이미지 생성 프레임워크입니다.
SiDA, a novel diffusion model distillation framework, integrates adversarial loss into score distillation, enabling faster convergence and state-of-the-art image generation quality, surpassing even the teacher model in some cases.
DDIL이라는 새로운 프레임워크를 사용하여, 데이터 분포를 유지하면서 공변량 변화 문제를 해결하여 더욱 효율적이고 효과적인 확산 모델 증류를 가능하게 한다.
DDIL, a novel framework inspired by imitation learning, enhances diffusion model distillation by addressing covariate shift and preserving data distribution through strategic sampling from forward and backward diffusion trajectories.
본 논문에서는, 저자들은 관계적 확산 증류(RDD)라는 새로운 증류 기법을 제안하여, 교사 모델과 학생 모델 간의 특징 맵 내 공간 정보를 활용하고 샘플 간의 정보 상호 작용 경로를 구축함으로써, 기존의 확산 모델 증류 기법보다 생성적 이미지 품질을 향상시키고, 더 적은 샘플링 단계에서도 우수한 성능을 달성했습니다.