Conceptos Básicos
NatSGDは、自然な人間-ロボット相互作用のための音声、ジェスチャー、およびデモンストレーションを備えたデータセットです。
Resumen
NatSGDは、音声とジェスチャーを組み合わせた人間の指示をキャプチャし、ロボット学習のための包括的なリソースとして機能します。このデータセットは、複雑な家庭用タスクを実行する際に本物の人間の行動を捉えるように設計されています。NatSGDは詳細な注釈が施されており、多様な家庭用ロボティックタスクのトレーニングを可能にし、HRI(Human-Robot Interaction)およびロボット学習の研究と開発を推進する貴重な資産です。
Estadísticas
NatSGDデータセットには1143件のコマンドが含まれています。
18人から発行されたコマンドが11つのアクション、20個のオブジェクト、16個の状態をカバーしています。
Speech OnlyモデルではJaccard類似度0.934であり、Gestures Onlyモデルでは0.922です。
Speech + GesturesモデルではJaccard類似度0.944であり、Spot Scoreは0.588です。
Citas
"NatSGD serves as a foundational resource at the intersection of machine learning and HRI research."
"We have released our dataset, simulator, and code to facilitate future research in human-robot interaction system learning."
"Our focus lies in creating a pioneering Human-Robot Interaction (HRI) dataset that satisfies natural human communications encompassing both speech and gestures."