Conceitos Básicos
LLM Gesticulatorは、音声とテキストプロンプトを入力として、自然で表現力豊かな全身ジェスチャーを生成する、スケーラブルで制御可能な新しいLLMベースのフレームワークである。
Resumo
LLM Gesticulator: 大規模言語モデルを用いた音声駆動ジェスチャー生成
タイトル: LLM Gesticulator: Leveraging Large Language Models for Scalable and Controllable Co-Speech Gesture Synthesis
著者: Haozhou Pang, Tianwei Ding, Lanshan He, and Qi Gan
所属: Soul AI, Soulgate Technology Co., Ltd., Shanghai, China
発表学会: arXiv preprint arXiv:2410.10851v1 [cs.GR] 6 Oct 2024
本論文では、音声入力とテキストプロンプトに基づいて、自然でリズミカル、かつ編集可能な全身ジェスチャーを生成する新しいフレームワーク、LLM Gesticulatorを提案する。