Core Concepts
Unser Ansatz, der auf tiefem Reinforcement Learning basiert, kann die Energie- und Zeiteffizienz von eVTOL-Flugzeugen in dynamischen Stadtwindfeldern effektiv ausbalancieren.
Abstract
Dieser Artikel stellt eine neuartige Methode zur Pfadplanung von eVTOL-Flugzeugen in Stadtwindfeldern vor. Der Schwerpunkt liegt darauf, einen ausgewogenen Kompromiss zwischen Energieverbrauch und Reisezeit zu finden.
Zunächst wird das Problem als Partially Observable Markov Decision Process (POMDP) formuliert. Dabei wird der Aktionsraum, der Beobachtungsraum und die Belohnungsfunktion definiert. Zur Lösung des Problems wird ein auf Proximal Policy Optimization (PPO) basierender Reinforcement-Learning-Ansatz verwendet, der speziell auf diesen Anwendungsfall zugeschnitten ist. Um den Lernprozess zu erleichtern, werden Belohnungsgestaltung und Curriculum-Lernen eingesetzt.
Zur Bewertung der Methode werden umfangreiche Experimente durchgeführt, bei denen die Ergebnisse mit dem theoretisch optimalen Dijkstra-Algorithmus verglichen werden. Die Ergebnisse zeigen, dass unser Ansatz die theoretisch optimalen Werte für Energieverbrauch und Reisezeit sehr genau approximiert, ohne statistisch signifikante Unterschiede. Verschiedene Beispielpfade werden ebenfalls präsentiert, um die Effektivität der Methode zu demonstrieren.
Stats
Die Energiekosten Et eines eVTOL-Flugzeugs werden wie folgt berechnet:
Et = (L / (V * ηP * ηM * ηESC)) * (1/2 * ρ * V^3 * S * CD0 + 2 * k * M^2 * g^2 / (ρ * S * V))
Quotes
Keine relevanten Zitate gefunden.