Core Concepts
본 연구는 RGB 이미지만을 사용하여 정확한 2D 손 자세 추정과 동작 인식을 달성하는 것을 목표로 합니다.
Abstract
본 연구는 1인칭 시점 동작 인식을 위한 새로운 접근법을 제안합니다. 기존 연구들은 3D 손 자세 정보에 의존하지만, 이는 깊이 추정 네트워크나 불편한 깊이 센서 착용이 필요합니다. 반면, 본 연구는 사용자 친화적인 스마트 안경에서 얻을 수 있는 단일 RGB 이미지를 활용하여 2D 손 자세 기반 동작 인식을 수행합니다.
구체적으로, 본 연구는 다음과 같은 기여를 합니다:
단일 손 2D 자세 추정을 위한 최신 아키텍처인 EffHandNet을 제안하며, FreiHAND 벤치마크에서 다른 방법들을 능가합니다.
1인칭 시점을 위한 새로운 2D 손 자세 추정 모델인 EffHandEgoNet을 제안하며, H2O와 FPHA 데이터셋에서 최신 기술을 능가합니다.
2D 손 자세와 물체 자세 정보를 활용한 새로운 1인칭 시점 동작 인식 방법을 제안합니다. H2O 데이터셋에서 91.32%의 정확도를 달성하여 최신 기술을 능가하며, FPHA 데이터셋에서도 94.43%의 정확도로 최고 성능을 보입니다.
H2O 데이터셋에 대한 광범위한 실험과 분석을 통해 손 자세 추정 방법이 동작 인식 성능에 미치는 영향을 보여줍니다.
Stats
1인칭 시점 동작 인식 모델의 정확도는 91.32%입니다.
FPHA 데이터셋에서 단일 손 동작 인식 모델의 정확도는 94.43%입니다.
제안한 EffHandEgoNet 모델은 H2O 데이터셋에서 손 자세 추정 시 PCK0.2가 97.38%, EPE가 9.80, AUC가 90.7%입니다.
Quotes
"본 연구는 RGB 이미지만을 사용하여 정확한 2D 손 자세 추정과 동작 인식을 달성하는 것을 목표로 합니다."
"제안한 EffHandEgoNet 모델은 H2O 데이터셋에서 손 자세 추정 시 PCK0.2가 97.38%, EPE가 9.80, AUC가 90.7%입니다."
"H2O 데이터셋에서 1인칭 시점 동작 인식 모델의 정확도는 91.32%이며, FPHA 데이터셋에서 단일 손 동작 인식 모델의 정확도는 94.43%입니다."