Core Concepts
本研究では、物体、アクション、効果を共通の潜在表現空間にマッピングするアフォーダンスブレンディングネットワークを提案する。このモデルにより、与えられたアクションと物体から効果を生成したり、与えられた効果と物体からアクションを生成したりすることができる。また、異なるロボットの間でアフォーダンス関係を転移することも可能である。
Abstract
本研究では、物体、アクション、効果を統一的に表現するアフォーダンスブレンディングネットワークを提案した。
アフォーダンスを(効果, (物体, アクション))と定式化し、物体、アクション、効果の共通潜在表現空間を学習する。
この潜在表現空間を用いて、アクションと物体から効果を生成したり、効果と物体からアクションを生成したりすることができる。
実験では、このモデルが物体ごとの個別の表現ではなく、物体間の共通のアフォーダンス関係を学習していることを示した。
また、異なるロボットの間でアフォーダンス関係を転移することも可能であることを示した。
さらに、実世界のロボット実験では、デモンストレーションから直接模倣することができることを示した。
最後に、不確定な入力に対して有効な出力を生成するための選択的損失関数を提案した。
Stats
物体の挿入可能性実験では、挿入可能な場合と挿入不可能な場合の力センサ出力の違いが見られた。
ロボットの把持実験では、把持可能な物体と把持不可能な物体の効果軌道に違いが見られた。
ロボットの転がし実験では、物体の転がり可能性に応じて効果軌道が異なることが分かった。