Core Concepts
本手法は、3D-aware GANを用いて、入力画像や動画の中の非対象物体を明示的にモデル化し、高精度な再構成と編集を実現する。
Abstract
本論文は、3D-aware GANを用いた画像・動画の再構成と編集に関する手法を提案している。
入力画像や動画には、対象物体(顔)以外の非対象物体(メイクアップ、アクセサリーなど)が含まれることが多く、既存の手法ではこれらを適切にモデル化できないため、再構成精度と編集性能のトレードオフが生じる問題がある。
本手法では、入力を対象物体(顔)と非対象物体の2つの3Dラジアンスフィールドで表現し、合成レンダリングを用いて再構成を行う。
これにより、非対象物体を明示的にモデル化できるため、高精度な再構成と編集性能を両立できる。
実験では、様々な入力画像や動画に対して、既存手法と比較して優れた再構成精度と編集性能を示している。
また、3D-aware編集、新規視点合成、非対象物体除去などの応用例も示されている。
Stats
入力画像や動画の中には、顔以外の非対象物体(メイクアップ、アクセサリーなど)が含まれることが多い。
既存の3D-aware GANの手法では、これらの非対象物体を適切にモデル化できず、再構成精度と編集性能のトレードオフが生じる。
Quotes
"3D-aware GANs offer new capabilities for view synthesis while preserving the editing functionalities of their 2D counterparts."
"However, a model pre-trained on a particular dataset (e.g., FFHQ) often has difficulty reconstructing images with out-of-distribution (OOD) objects such as faces with heavy make-up or occluding objects."