Die Studie präsentiert einen Ansatz zur autonomen Navigation von Nano-UAVs, der globale und lokale Wahrnehmung integriert. Die globale Wahrnehmung nutzt das PULP-Dronet-Convolutional-Neural-Network, um semantische Informationen aus Bildern zu extrahieren. Die lokale Wahrnehmung verwendet einen 8x8-Pixel-Time-of-Flight-Sensor, um präzise Tiefenkarten in der Nähe des Drones zu erfassen.
Die Fusion dieser beiden Wahrnehmungskanäle in einem leichtgewichtigen Lookup-Tabellen-Ansatz ermöglicht es dem Nano-UAV, erfolgreich durch einen komplexen Korridor zu navigieren. Der Ansatz kombiniert die Vorteile beider Sensortypen: Die Tiefenmessungen ermöglichen eine zuverlässige Vermeidung statischer Hindernisse in der Nähe, während die visuelle Wahrnehmung semantische Hinweise wie Bodenmarkierungen erkennt, um dem Korridor zu folgen.
In 15 Testflügen erreichte der integrierte Ansatz eine Erfolgsquote von 100% bei der Navigation durch gerade Strecken, dem Ausweichen von Hindernissen und dem Ausführen von 90-Grad-Kurven. Im Vergleich dazu scheiterten rein visuelle oder rein tiefenbasierte Ansätze in bestimmten Teilaufgaben.
To Another Language
from source content
arxiv.org
Viktige innsikter hentet fra
by Lorenzo Lamb... klokken arxiv.org 03-19-2024
https://arxiv.org/pdf/2403.11661.pdfDypere Spørsmål