Der TAIL-Datensatz umfasst verschiedene Sequenzen, die auf zwei unterschiedlichen Stränden aufgenommen wurden. Die Sequenzen beinhalten Daten von Stereo-Kameras, RGB-D-Kameras, einem 3D-LiDAR, einer Inertialmesseinheit (IMU) und einem RTK-GNSS-Empfänger. Sowohl ein Radroboter als auch ein Vierbeinroboter wurden verwendet, um die Daten in den sandigen Umgebungen mit unterschiedlichen Bodeneigenschaften und Beleuchtungsverhältnissen zu erfassen.
Die Sequenzen decken ein breites Spektrum an Herausforderungen ab, wie texturlose Oberflächen, dynamische Objekte, Beleuchtungswechsel und verschiedene Fortbewegungsmuster der Roboter. Die Daten sind hardwaresynchronisiert und kalibriert, um eine präzise Auswertung zu ermöglichen.
Der Datensatz bietet Referenzposen zur Evaluierung von SLAM-Algorithmen. Die Benchmarking-Ergebnisse zeigen, dass die Integration mehrerer Sensoren entscheidend ist, um in solch komplexen Umgebungen hohe Genauigkeit und Robustheit zu erreichen. Der TAIL-Datensatz soll die Forschung an terrain-bewussten SLAM-Techniken für autonome Roboter in unstrukturierten Umgebungen vorantreiben.
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問