Core Concepts
나노 UAV의 자율 주행을 위해 시각 기반 PULP-Dronet CNN과 깊이 센서 기반 근접 장애물 회피 기술을 융합하여 직선 주행, 90도 회전, 정적 장애물 회피 등 복잡한 주행 시나리오에서 100% 성공률을 달성했다.
Abstract
이 논문은 나노 UAV의 자율 주행을 위한 새로운 비전-깊이 센서 융합 접근법을 소개한다. 주요 내용은 다음과 같다:
글로벌 인지 파이프라인: PULP-Dronet CNN을 사용하여 시각적 단서를 처리하고 항법 정보(조향각, 충돌 확률)를 추출한다.
로컬 인지 파이프라인: 8x8 픽셀 깊이 맵을 사용하여 근접 장애물 회피를 수행한다.
글로벌 + 로컬 인지 융합: 두 파이프라인의 출력을 조합하여 경량 룩업 테이블 기반 제어 명령을 생성한다.
실험 결과, 제안된 융합 파이프라인은 직선 주행, 90도 회전, 정적 장애물 회피 등 복잡한 주행 시나리오에서 100% 성공률을 달성했다. 단일 센서 기반 접근법에 비해 우수한 성능을 보였다.
Stats
나노 UAV의 무게는 27g, 직경은 10cm이다.
깊이 센서의 시야각은 65도, 측정 범위는 0.2-4m이다.
PULP-Dronet CNN은 19FPS의 속도로 실행된다.
Quotes
"우리의 융합 인지 파이프라인은 직선 주행, 90도 회전, 정적 장애물 회피 등 복잡한 주행 시나리오에서 100% 성공률을 달성했다."
"단일 센서 기반 접근법에 비해 우수한 성능을 보였다."