Core Concepts
본 연구에서는 두 개의 다중 손가락 로봇 손을 이용하여 시각-촉각 데이터로부터 다양한 복잡한 양손 조작 기술을 학습하였다.
Abstract
본 연구에서는 두 개의 UR5 로봇 팔과 각각 Psyonic Ability Hand를 장착한 양손 시스템을 구축하였다. 이 시스템은 두 개의 손목 부착 RGB-D 카메라와 한 개의 세 번째 시점 카메라를 통해 시각 정보를 수집하며, 각 손가락 끝에 6개의 압력 센서를 통해 촉각 정보를 수집한다. 이 시스템을 이용하여 Meta Quest 2 VR 컨트롤러로 원격 조종하여 다양한 데모 데이터를 수집하였다.
수집된 데이터를 바탕으로 미끄러운 물체 건네주기, 블록 쌓기, 와인 병 따르기, 스테이크 접시에 담기 등 4가지 복잡한 양손 조작 과제에 대한 정책을 학습하였다. 이 정책들은 시각-촉각 데이터를 활용하여 높은 성공률로 과제를 수행할 수 있었다.
추가로 데이터셋 크기, 센싱 모달리티, 시각 입력 전처리 등이 정책 학습에 미치는 영향을 분석하였다. 특히 촉각 정보와 시각 정보가 정책 성능 향상에 매우 중요한 역할을 하는 것을 확인하였다. 촉각 또는 시각 정보가 없는 경우 정책이 과제를 일관되게 수행하지 못하거나 완전히 실패하는 것으로 나타났다.
Stats
미끄러운 물체를 안정적으로 건네주기 위해서는 큰 접촉면적이 필요하다.
블록 쌓기 과제에서는 손바닥의 넓은 접촉면적과 안정적인 자세 유지 능력이 중요하다.
와인 병 따르기 과제에서는 무게 중심이 변화하는 큰 물체를 잡는 능력이 필요하다.
스테이크 접시에 담기 과제에서는 도구를 사용하고 물체를 안정적으로 옮기는 능력이 필요하다.
Quotes
"시각 정보와 촉각 정보가 정책 성능 향상에 매우 중요한 역할을 한다. 촉각 또는 시각 정보가 없는 경우 정책이 과제를 일관되게 수행하지 못하거나 완전히 실패한다."