本研究旨在開發一種自監督方法,用於從單目 RGB 影像中偵測機器人並估計其航向,而無需昂貴的姿態標籤。
研究人員使用配備四個獨立 LED 的 DJI S1 RoboMaster 機器人,讓機器人在實驗室環境中隨機移動並切換 LED 狀態。他們收集了機器人視角影像和對應的 LED 狀態數據集。接著,他們訓練了一個全卷積神經網路 (FCN) 模型,以預測 LED 狀態、機器人在影像中的位置和航向。模型使用二元交叉熵損失函數進行訓練,並透過預測的機器人位置和航向對損失進行加權,從而實現自監督學習。
實驗結果表明,該方法在機器人偵測和航向估計方面均取得了良好的效果。與使用姿態標籤訓練的模型相比,該方法僅使用 LED 狀態標籤就能達到相當的性能。具體來說,該方法在測試集上取得了 14.5 像素的平均影像空間位置誤差和 17.0 度的平均航向誤差。
本研究證明了基於多 LED 分類的自監督學習方法可以有效地用於機器人偵測和航向估計,為機器人視覺領域提供了一種低成本且易於實施的解決方案。
該研究對於多機器人系統和機器人導航等應用具有重要意義,因為它提供了一種無需昂貴且耗時的姿態標籤即可實現機器人定位和姿態估計的方法。
未來的研究方向包括更全面的模型評估,以及開發新的加權機制以估計機器人距離,從而完全無需姿態標籤即可實現機器人姿態估計。
翻譯成其他語言
從原文內容
arxiv.org
深入探究