Die Studie präsentiert ein innovatives Werkzeug für künstlerische Aufführungen, das auf Attributbeschreibungen basiert. Das Kernstück ist ein neuartiges, attributgesteuertes Variational-Autoencoder-Modell, das entwickelt wurde, um die Herausforderung des Erfassens und Generierens realistischer 3D-Menschenbewegungen aus Bewegungserfassungsdaten zu bewältigen.
Das Modell wurde speziell für die Darstellung komplexer Fallbewegungen entwickelt, die in drei distinkte Phasen unterteilt sind: Aufprall, Glitch und Fall. Durch die Verwendung separater Encoder-Decoder-Paare für jede Phase kann das Modell die einzelnen Bewegungsphasen präzise extrahieren und generieren. Darüber hinaus wurde eine zyklische Designstruktur eingeführt, bei der der letzte Frame der vorherigen Phase als Ausgangspunkt für die nächste Phase dient, um die Kontinuität der Bewegungssequenzen zu verbessern.
Um die Robustheit des Modells zu erhöhen, wurden umfangreiche Datenerweiterungstechniken angewendet, darunter die Verwendung der Fourier-Transformation zur Manipulation der Bewegungsdaten im Frequenzbereich. Zusätzlich wurde eine Verlustfunktion für die Startpose eingeführt, um die Genauigkeit der generierten Sequenzen weiter zu verbessern.
Das Forschungsteam hat auch eine benutzerfreundliche, webbasierte Visualisierungsplattform entwickelt, die es Künstlern ermöglicht, die generierten Bewegungen intuitiv zu erkunden und zu verfeinern. Die Plattform bietet eine 360-Grad-Ansicht und eine dynamische Zeitachse, mit denen Nutzer die Bewegungssequenzen detailliert untersuchen und anpassen können.
Insgesamt ebnet diese Arbeit den Weg für eine Zukunft, in der Technologie das kreative Potenzial des menschlichen Ausdrucks verstärkt und die Erstellung komplexer Bewegungsgenerierung einer breiteren künstlerischen Gemeinschaft zugänglich macht.
To Another Language
from source content
arxiv.org
Deeper Inquiries