本文提出了一種基於 3D 高斯閃電的新方法,用於從多視圖 LDR 圖像重建 HDR 輻射場,並實現實時景深渲染和後編輯功能。
본 논문은 다양한 노출, 조리개, 초점 거리를 가진 저해상도 이미지를 입력으로 사용하여 실시간 렌더링 및 노출 및 피사계 심도의 후편집이 가능한 HDR 래디언스 필드를 재구성하는 새로운 방법을 제시합니다.
本稿では、多様な露光時間、絞り値、焦点距離で撮影された複数枚のLDR画像から、高ダイナミックレンジ(HDR)放射輝度場をリアルタイムに再露光および再フォーカス機能付きで再構成する手法を提案する。
This research introduces a novel method for reconstructing high-dynamic-range (HDR) radiance fields with real-time refocusing capabilities from multi-view low-dynamic-range (LDR) images, leveraging 3D Gaussian Splatting and a thin-lens camera model for efficient and high-quality cinematic rendering.
다양한 3D 객체에 대해 사실적인 PBR 재질을 생성하는 통합 프레임워크인 "Material Anything"을 소개하며, 이미지 기반 재질 추정 작업을 통해 사전 학습된 이미지 확산 모델을 활용하여 고품질 재질 생성을 가능하게 합니다.
本文提出了一種基於學習的方法,利用 3D 可變形模型 (3DMM) 合成訓練數據,訓練神經網絡預測兩個臉部網格之間的剛性變換,從而實現自動化的臉部網格穩定化,並超越了現有方法的性能。
3DMM을 활용하여 합성 데이터를 생성하고, 이를 학습한 신경망을 통해 임의의 두 3D 얼굴 메쉬 표정에서 불필요한 머리 움직임을 제거하여 자동으로 안정화하는 기법을 제시합니다.
顔メッシュから不要な頭部の動きを取り除くために、3DMMを用いて学習させたニューラルネットワークを用いることで、完全に自動化された顔メッシュ安定化を実現できる。
This research introduces a novel, fully automatic, learning-based method for stabilizing facial meshes, leveraging a 3D Morphable Model (3DMM) to predict and remove unwanted rigid head motion from captured facial expressions.
3D 볼록 팽창(3DCS)은 3D 부드러운 볼록을 기본 요소로 사용하여 기존 가우시안 기반 방법보다 더 높은 품질과 효율성으로 래디언스 필드를 표현하고 렌더링하는 새로운 방법입니다.