核心概念
단안 깊이 추정(MDE) 모델은 자율 주행에 널리 사용되지만 적대적 공격에 취약하다. 이 연구에서는 3D2Fool이라는 새로운 3D 텍스처 기반 적대적 공격 방법을 제안하여 다양한 시나리오에서 MDE 모델을 효과적으로 속일 수 있음을 입증한다.
摘要
이 연구는 단안 깊이 추정(MDE) 모델의 물리적 3D 적대적 공격에 대해 다룬다. MDE는 자율 주행 등 다양한 실제 응용 분야에 사용되지만 최근 연구에 따르면 적대적 공격에 취약한 것으로 나타났다.
기존 연구에서는 2D 적대적 패치를 이용한 공격 방법을 제안했지만, 이는 차량의 특정 부분만 영향을 미치고 다양한 관찰 각도에서 효과가 떨어진다는 한계가 있었다.
이 연구에서는 3D2Fool이라는 새로운 3D 텍스처 기반 적대적 공격 방법을 제안한다. 3D2Fool은 차량 모델에 관계없이 적용할 수 있는 3D 적대적 텍스처를 생성하며, 악천후 조건에서도 강건한 성능을 보인다.
실험 결과, 3D2Fool은 다양한 시나리오에서 기존 방법보다 월등한 성능을 보였다. 특히 차량, MDE 모델, 날씨 조건, 관찰 각도 등 다양한 변수에 대해 강건한 공격 성능을 입증했다. 또한 실제 차량 모델에 프린트된 3D 텍스처를 적용하여 10m 이상의 깊이 추정 오류를 발생시킬 수 있음을 확인했다.
統計資料
정상 차량의 경우 Monodepth2 모델의 평균 깊이 추정 오차(Ed)는 1.25m이고, 영향 받은 영역 비율(Ra)은 0.019이다.
3D2Fool 공격을 받은 차량의 경우 Monodepth2 모델의 Ed는 12.75m, Ra는 0.496으로 크게 증가했다.
다른 MDE 모델들에 대해서도 3D2Fool 공격이 기존 방법보다 월등한 성능을 보였다.
악천후 조건에서도 3D2Fool은 기존 방법보다 강건한 성능을 유지했다.
引述
"3D2Fool은 차량 모델에 관계없이 적용할 수 있는 3D 적대적 텍스처를 생성하며, 악천후 조건에서도 강건한 성능을 보인다."
"실험 결과, 3D2Fool은 다양한 시나리오에서 기존 방법보다 월등한 성능을 보였다."
"실제 차량 모델에 프린트된 3D 텍스처를 적용하여 10m 이상의 깊이 추정 오류를 발생시킬 수 있음을 확인했다."