核心概念
본 연구는 단일 이미지, 비디오 또는 무작위 노이즈로부터 시간적으로 일관된 인체 애니메이션을 생성하는 방법을 제안한다. 기존 단방향 생성 모델의 한계를 극복하기 위해 양방향 시간 확산 모델을 설계하여 시간적 일관성을 높이고 외관 왜곡을 줄였다.
摘要
본 논문은 단일 이미지, 비디오 또는 무작위 노이즈로부터 시간적으로 일관된 인체 애니메이션을 생성하는 방법을 제안한다.
기존 인체 애니메이션 생성 모델은 과거 프레임을 조건으로 미래 프레임을 예측하는 단방향 생성 방식을 사용했다. 이로 인해 외관 왜곡 등의 문제가 발생했다.
이를 해결하기 위해 본 연구는 양방향 시간 확산 모델을 제안한다. 이 모델은 연속 프레임 간 특징을 양방향으로 교차 조건화하여 시간적 일관성을 높인다.
구체적으로, 탈노이즈 확산 모델을 활용하여 시간 가우시안 노이즈를 제거하는 과정에서 연속 프레임의 특징을 양방향으로 교차 조건화한다. 이를 통해 국소적, 전역적 시간 맥락을 효과적으로 학습할 수 있다.
실험 결과, 제안 모델은 기존 단방향 모델 대비 시간적 일관성이 크게 향상된 인체 애니메이션을 생성할 수 있음을 보였다. 또한 단일 이미지, 비디오, 무작위 노이즈로부터 다양한 인체 애니메이션을 생성할 수 있다.
統計資料
단일 이미지로부터 생성한 인체 애니메이션의 SSIM은 0.958로 기존 방법 대비 높다.
단일 이미지로부터 생성한 인체 애니메이션의 tLPIPS는 0.003으로 기존 방법 대비 낮다.
개인 특화 인체 애니메이션의 SSIM은 평균 0.955로 기존 방법 대비 높다.
개인 특화 인체 애니메이션의 tLPIPS는 평균 0.0032로 기존 방법 대비 낮다.
引述
"본 연구는 단일 이미지, 비디오 또는 무작위 노이즈로부터 시간적으로 일관된 인체 애니메이션을 생성하는 방법을 제안한다."
"기존 단방향 생성 모델의 한계를 극복하기 위해 양방향 시간 확산 모델을 설계하여 시간적 일관성을 높이고 외관 왜곡을 줄였다."
"양방향 시간 확산 모델은 연속 프레임 간 특징을 양방향으로 교차 조건화하여 시간적 일관성을 높인다."