Dieser Artikel präsentiert einen Ansatz zur autonomen Navigation von Nano-UAVs, der globale und lokale Wahrnehmung kombiniert.
Der globale Wahrnehmungspfad nutzt das PULP-Dronet-Convolutional-Neural-Network, um semantische Informationen aus Bildern zu extrahieren. Der lokale Wahrnehmungspfad verwendet einen 8x8-Pixel-Time-of-Flight-Sensor, um präzise Tiefenkarten in der Nähe des Drones zu erfassen.
Die Fusion dieser beiden Wahrnehmungskanäle in einem leichtgewichtigen Lookup-Tabellen-Ansatz ermöglicht es dem Nano-UAV, erfolgreich durch einen komplexen Korridor zu navigieren. Es kann dabei gerade Strecken, 90-Grad-Kurven und statische Hindernisse meistern.
Im Vergleich dazu scheitert die rein visuelle Wahrnehmung an der Hindernisumfahrung, während die reine Tiefenwahrnehmung Probleme bei Kurvenmanövern hat. Die Ergebnisse zeigen, dass die Kombination von globaler und lokaler Wahrnehmung die Vorteile beider Sensortypen nutzt und so eine robuste autonome Navigation auf Nano-UAVs ermöglicht.
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Lorenzo Lamb... a las arxiv.org 03-19-2024
https://arxiv.org/pdf/2403.11661.pdfConsultas más profundas