Grunnleggende konsepter
사전 학습된 비디오 확산 모델(VDT)을 활용하여 로봇의 동작 예측 정확도를 향상시키는 2단계 학습 프레임워크인 VidMan을 소개합니다.
Sammendrag
VidMan: 비디오 확산 모델의 암묵적 동역학을 활용한 효과적인 로봇 조작 연구 논문 요약
참고 문헌: Youpeng Wen1∗, Junfan Lin2∗, Yi Zhu3, Jianhua Han3, Hang Xu3, Shen Zhao1†, Xiaodan Liang12†. (2024). VidMan: Exploiting Implicit Dynamics from Video Diffusion Model for Effective Robot Manipulation. 38th Conference on Neural Information Processing Systems (NeurIPS 2024).
본 연구는 대규모 비디오 데이터로 학습된 비디오 생성 모델의 복잡한 물리적 역학 이해 능력을 로봇 조작에 활용하는 것을 목표로 합니다. 특히, 다양한 로봇 궤적 데이터를 활용하여 통합된 동역학 인식 모델을 개발하여 로봇 조작 성능을 향상시키는 데 중점을 둡니다.
본 연구에서는 2단계 학습 패러다임을 사용하는 VidMan(Video Diffusion for Robot Manipulation)이라는 새로운 프레임워크를 제안합니다.
1단계: 동적 인식 비전 단계
VidMan은 Open X-Embodiment 데이터 세트(OXE)에서 비디오 노이즈 제거 확산 방식으로 향후 비주얼 궤적을 예측하도록 사전 학습됩니다. 이를 통해 모델은 환경 역학에 대한 장기적인 수평적 인식을 개발합니다.
2단계: 동적 변조 동작 단계
유연하면서도 효과적인 계층별 자기 주의 어댑터를 도입하여 VidMan을 효율적인 역 동역학 모델로 변환합니다. 이 모델은 매개변수 공유를 통해 암묵적 동역학 지식에 의해 변조된 동작을 예측합니다.