本研究では、車いす利用者の姿勢推定モデルの性能を向上させるために、データ合成パイプラインを開発した。このパイプラインでは、モーションキャプチャデータと深層学習モデルを用いて、車いす利用者の姿勢を模擬したアニメーションを生成し、Unity ゲームエンジンを使ってリアルな合成画像とアノテーションを作成する。
まず、HumanML3Dモーションキャプチャデータと Text2Motionの深層学習モデルを使って、車いす利用者の様々な動作を表現するアニメーションを生成した。次に、これらのアニメーションを車いすに搭載したCOCO形式の人体モデルにリグし、ランダムな背景、照明、カメラ設定などを組み合わせて、合成画像とアノテーションを生成した。
生成したデータセットについて、車いす利用者を対象にした人的評価を行った。その結果、生成データは現実的であると評価され、既存のデータセットよりも多様性が高いことが示された。また、生成データを使ってファインチューニングを行うことで、既存の姿勢推定モデルの性能が向上することが確認された。
本研究では、データ中心主義とユーザー中心主義の観点から、AI の包摂性を高めるための取り組みの一つとして、データ合成手法を提案した。また、生成したデータセットとUnity環境を公開することで、今後の研究の発展につなげることを目指している。
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by William Huan... at arxiv.org 04-29-2024
https://arxiv.org/pdf/2404.17063.pdfDeeper Inquiries