Основні поняття
대규모 확산 모델의 생성 능력을 활용하여 학습 없이 콘텐츠 이미지의 스타일을 타겟 스타일 이미지로 효과적으로 전이할 수 있는 방법을 제안한다.
Анотація
이 논문은 대규모 확산 모델의 생성 능력을 활용하여 학습 없이 콘텐츠 이미지의 스타일을 타겟 스타일 이미지로 효과적으로 전이할 수 있는 방법을 제안한다.
- 주요 아이디어는 자기 주의 층의 특징을 조작하는 것이다. 구체적으로 콘텐츠 이미지의 키와 값을 스타일 이미지의 것으로 대체하여 스타일을 전이한다.
- 이 접근법은 콘텐츠 보존, 지역 텍스처 기반 스타일 전이 등의 장점을 제공한다.
- 쿼리 보존, 주의 온도 조절, 초기 잠재 AdaIN 등의 추가 기술을 통해 콘텐츠 훼손 문제와 부조화로운 색상 문제를 해결한다.
- 실험 결과, 제안 방법이 기존 스타일 전이 방법들을 크게 능가하는 성능을 보인다.
Статистика
제안 방법은 기존 방법들에 비해 ArtFID, FID, LPIPS 등의 지표에서 월등한 성능을 보인다.
제안 방법의 추론 시간은 12.4초로 기존 확산 모델 기반 방법들에 비해 매우 빠르다.
Цитати
"우리는 자기 주의 층의 특징을 조작하는 것이 효과적인 스타일 전이 방법이라고 새롭게 주장한다."
"제안 방법은 콘텐츠 보존, 지역 텍스처 기반 스타일 전이 등의 장점을 제공한다."
"쿼리 보존, 주의 온도 조절, 초기 잠재 AdaIN 등의 추가 기술을 통해 콘텐츠 훼손 문제와 부조화로운 색상 문제를 해결한다."