核心概念
本文提出了一種新的面部動作捕捉技術CAPUS,利用慣性測量單元(IMU)作為感測模式,無需依賴視覺信號即可準確重建面部表情。
摘要
本文介紹了CAPUS,這是一種創新的面部動作捕捉系統,採用慣性測量單元(IMU)作為感測模式,無需依賴視覺信號。CAPUS利用微型IMU設計,將其貼附在面部關鍵肌肉區域,以捕捉面部表情動態。作者創建了首個IMU-ARKit數據集,包含IMU信號、視覺數據、音頻信號和ARKit表情參數。基於此數據集,作者提出了一種基於Transformer Diffusion的神經網絡,可直接從IMU數據推斷Blendshape參數。實驗結果表明,CAPUS在遮擋、快速運動和低光環境等情況下,都能可靠地捕捉面部動作,並且無需視覺輸入,能提供增強的隱私保護。
統計資料
我們的IMU設計僅重2.7%商用Xsens IMU,體積僅為5.4%。
我們的IMU-ARKit數據集包含20名參與者的IMU信號、視覺數據、音頻信號和ARKit表情參數。
我們的Transformer Diffusion網絡在PVE、PVE LMK和MSE指標上,與ARKit的結果相當。
引述
"CAPUS支持在傳統視覺方法難以應對的情況下,可靠地捕捉面部動作,如遮擋、快速運動和低光環境。"
"通過消除對視覺輸入的需求,CAPUS提供了增強的隱私保護,使其成為一種強大的無視覺面部動作捕捉解決方案。"