Conceitos Básicos
소규모 언어 모델도 단일 도메인 내에서 체인 추론을 학습할 수 있다면 로봇의 작업 계획에 적합할 수 있다.
Resumo
이 논문은 대규모 언어 모델(LLM)의 사용이 로봇 공학에서 점점 더 일반화되고 있다는 점을 지적한다. 특히 LLM은 사용자 명령을 이해하고 고수준 명령을 저수준 행동 단계로 분해하는 작업 계획에 활용되고 있다. LLM은 체인 추론(Chain-of-Thought, CoT) 능력을 가지고 있어 이를 활용할 수 있다.
그러나 현대 로봇은 여전히 복잡한 작업을 수행하는 데 어려움을 겪고 있으며, 실제로 배치될 수 있는 도메인이 제한적이다. 이에 따라 저자들은 소규모 언어 모델도 단일 도메인 내에서 체인 추론을 학습할 수 있다면 로봇의 작업 계획에 적합할 수 있다는 질문을 제기한다.
이를 위해 저자들은 LLM을 활용하여 고수준 명령과 저수준 행동 단계로 구성된 'COmmand-STeps Dataset'(COST)을 구축한다. 이 데이터셋을 사용하여 소규모 언어 모델(GPT2)을 fine-tuning하고, 테이블탑 및 주방 환경에서 LLM(GPT3.5, GPT4)과 성능을 비교한다. 그 결과 GPT2-medium이 특정 도메인에서 GPT3.5와 유사한 작업 계획 성능을 보인다는 것을 확인했다.
Estatísticas
현대 로봇은 여전히 복잡한 작업을 수행하는 데 어려움을 겪고 있다.
실제로 배치될 수 있는 로봇의 도메인은 제한적이다.
소규모 언어 모델도 단일 도메인 내에서 체인 추론을 학습할 수 있다.
Citações
"LLMs' ability to perform Chain-of-Thought (CoT) reasoning [3] remains crucial."
"If small LMs can be trained to reason in chains, even within a single domain, would even smaller LMs be good task planners for the robots?"