本研究では、大学構内の混雑した歩行者群の中を安全に移動するためのロボットの学習戦略について取り組んでいる。
まず、ロボットの選定と設定を行った。Pioneer P3-DXというモバイルロボットを使用し、ジョイスティックによる遠隔操作を可能にした。
次に、歩行者群の3つのシナリオ(前方が空いている、少数の歩行者がいる、多数の歩行者がいる)を特定した。
視覚ベースの追跡システムを構築し、上部からの映像を取得した。ロボットの位置と向きを特定するために、ロボットに色付きのマーカーを付けた。歩行者の位置は、OpenPoseによる2D姿勢推定を使って検出した。
映像データを収集し、ロボットの操縦者を複数人使って、様々な時間帯(授業前、授業中、昼休み等)のデータを取得した。
収集したデータを使って、畳み込みニューラルネットワーク(CNN)を訓練した。入力は64x64ピクセルの占有マップで、ロボットの向きと歩行者の位置を表す。出力は、ロボットの速度と角度の変化量である。
様々なハイパーパラメータの調整を行い、最終的なCNNアーキテクチャを決定した。訓練の結果、ロボットの速度と角度の変化量を適切に予測できることが確認できた。
しかし、ロボットの機械的な問題により、実環境での評価までは至らなかった。今後の課題として、実環境での評価、センサの追加、コミュニケーション機能の追加、データ収集の拡大、他の環境への適用などが挙げられる。
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Rajshree Dau... a las arxiv.org 04-11-2024
https://arxiv.org/pdf/2404.06561.pdfConsultas más profundas