本文提出了一種名為 ControlTalk 的新型唇語同步方法,該方法通過編輯參數化的面部關鍵點來實現高效的說話人臉生成,並簡化了生成過程,同時保留了高質量的生成圖像。
이 논문에서는 사전 학습된 비디오 합성 렌더러를 활용하고, 음성 및 원본 표정에서 향상된 표정 포인트를 매핑하는 경량 어댑테이션 모듈인 Audio2Exp를 제안하여, 단일 이미지 또는 비디오 입력 모두에서 자연스러운 립싱크와 표정 변형을 가진 Talking Face를 생성하는 ControlTalk라는 새로운 방법을 제시합니다.
本稿では、音声駆動型のトークフェース生成における、よりシンプルかつ制御性の高い新しい手法「ControlTalk」を提案する。ControlTalkは、事前に学習されたビデオ合成レンダラーと軽量な適応モジュールAudio2Expを用いることで、高品質なリップシンクと口の開き方の制御を実現する。
本文提出了一種新的準靜態布料模擬器 NeuralClothSim,它使用神經場來表示布料的變形,並利用薄殼理論來監督模擬過程,從而實現連續、一致且高效的布料模擬。
本文提出了一種新的三維擬共形映射表示方法,用於描述三維映射的局部膨脹,並提出了一種類似於二維線性貝爾特拉米求解器(LBS)的算法,將該表示与其對應的映射聯繫起來。
NeuralClothSim은 얇은 쉘 이론을 사용하여 천의 변형을 신경망 가중치로 인코딩하는 새로운 준정적 천 시뮬레이터로, 기존의 이산 표현 방식의 한계를 극복하고 연속적이고 일관된 시뮬레이션을 가능하게 합니다.
본 논문에서는 3D 매핑의 국소적인 팽창을 효과적으로 나타내는 새로운 3D 준등각 표현 방식과 이 표현 방식과 이에 상응하는 매핑을 연결하는 LBS와 유사한 알고리즘을 제안합니다.
NeuralClothSimは、従来のクロスシミュレーションの限界を克服する、ニューラルフィールドを用いた新しい連続的で微分可能なクロスシミュレーション手法である。
NeuralClothSim is a novel cloth simulator that leverages neural fields to represent cloth deformation, offering advantages like continuous surface representation, memory efficiency, and compatibility with neural architectures, while adhering to the principles of thin-shell theory for physically accurate simulations.
This paper introduces a novel 3D quasiconformal representation for diffeomorphisms, enabling the analysis and manipulation of 3D mappings by capturing local dilation. The authors present a reconstruction algorithm based on this representation, demonstrating its effectiveness in mapping reconstruction, keyframe interpolation, and 3D mapping compression.