toplogo
Sign In

ASAP-MPC: Ein asynchrones Aktualisierungsschema für die Online-Bewegungsplanung mit nichtlinearer modellprädiktiver Regelung


Core Concepts
ASAP-MPC ist ein Ansatz, der mit variierenden und manchmal restriktiv großen Lösungszeiten umgeht, indem er ein asynchrones Aktualisierungsschema verwendet, das immer eine vollständige Konvergenz und Echtzeitausführung ermöglicht.
Abstract
Dieser Artikel präsentiert ein Schema für nichtlineare modellprädiktive Regelung (NMPC), das für die Bewegungsplanung von mechatronischen Bewegungssystemen wie Drohnen und Mobilplattformen konzipiert ist. NMPC-basierte Bewegungsplanung erfordert in der Regel geringe Rechenzeiten, um Steuereingaben mit der erforderlichen Rate für Systemstabilität, Störungsunterdrückung und Gesamtleistung bereitstellen zu können. Obwohl es in der Literatur verschiedene Möglichkeiten gibt, die Lösungszeiten in NMPC zu reduzieren, sind diese Zeiten möglicherweise nicht niedrig genug, um Echtzeitimplementierungen zu ermöglichen. Das vorgestellte ASAP-MPC-Schema kombiniert den NMPC-Algorithmus mit einem linearen Zustandsrückführungsregler, der die optimierten Trajektorien verfolgt, um eine höhere Robustheit gegenüber möglichen Störungen und Modellabweichungen zu erreichen. ASAP-MPC verbindet die Trajektorien, die aus aufeinanderfolgenden NMPC-Lösungen resultieren, nahtlos und bietet eine glatte und kontinuierliche Gesamttrajektorie für das Bewegungssystem. Die Anwendbarkeit dieses Rahmens für eingebettete Anwendungen wird anhand von zwei verschiedenen Versuchsaufbauten gezeigt, bei denen eine state-of-the-art-Methode versagt: einer Quadcopter-Drohne, die in einer Hardware-in-the-Loop-Simulation durch eine unübersichtliche Umgebung fliegt, und einem Maßstabsmodell eines Lkw-Anhänger-Gespanns, das in einer strukturierten Laborumgebung manövriert.
Stats
Die durchschnittliche Rechenzeit für Ipopt, über 50 aufeinanderfolgende Zeitschritte gemittelt, beträgt 8 ms, während die durchschnittliche Rechenzeit für qpOASES 18 ms beträgt.
Quotes
"ASAP-MPC seamlessly combines them using smooth transitions between subsequent locally optimal trajectories, providing both disturbance rejection and swift reactions to changing environmental information." "Consequently, it eliminates unwanted behaviour due to the computational delay, such as drifting because of plant-model mismatch and the aforementioned trajectory jumping phenomenon."

Key Insights Distilled From

by Drie... at arxiv.org 03-14-2024

https://arxiv.org/pdf/2402.06263.pdf
ASAP-MPC

Deeper Inquiries

Wie könnte eine robustere Methode aussehen, die Garantien für das Finden einer Lösung des OCP bietet, um die Robustheit des Frameworks weiter zu verbessern?

Eine robustere Methode zur Gewährleistung der Lösung des OCP könnte die Implementierung eines hybriden Ansatzes sein, der sowohl deterministische als auch stochastische Elemente kombiniert. Dies könnte bedeuten, dass neben dem deterministischen Optimierungsansatz auch probabilistische Methoden wie Monte Carlo-Simulationen oder evolutionäre Algorithmen verwendet werden, um verschiedene Lösungen zu generieren und die Robustheit des Ergebnisses zu verbessern. Durch die Integration von probabilistischen Elementen kann die Methode besser auf unvorhergesehene Änderungen oder Unsicherheiten reagieren und sicherstellen, dass eine Lösung gefunden wird, die den Anforderungen des OCP entspricht.

Wie könnte eine automatische Hyperparameteroptimierung des MPC-Problems und des zugrunde liegenden Lösers, wie z.B. des Steuerungshorizonts, durch Reinforcement Learning die Planungszeiten und die Qualität der resultierenden Trajektorien verbessern?

Die automatische Hyperparameteroptimierung durch Reinforcement Learning könnte dazu beitragen, die Planungszeiten und die Qualität der Trajektorien zu verbessern, indem sie eine adaptive Anpassung der Hyperparameter ermöglicht. Durch die kontinuierliche Optimierung der Hyperparameter, wie z.B. des Steuerungshorizonts, basierend auf den Erfahrungen und dem Feedback aus früheren Planungen, kann das System effizienter und effektiver werden. Das Reinforcement Learning kann genutzt werden, um die besten Hyperparameter-Konfigurationen zu erlernen, die zu schnelleren Planungszeiten und qualitativ hochwertigeren Trajektorien führen. Dieser Ansatz ermöglicht eine kontinuierliche Verbesserung der Leistung des MPC-Systems.

Wie könnte der derzeitige Rückführungsregler zu einem MPC-Verfolgungsregler, z.B. unter Verwendung von RTI, erweitert werden, um den Verfolgungsfehler weiter zu verbessern, was für Anwendungen mit höheren Genauigkeitsanforderungen wie automatisches Schweißen und Laserkonturierung erforderlich sein könnte?

Die Erweiterung des aktuellen Rückführungsreglers zu einem MPC-Verfolgungsregler, insbesondere unter Verwendung von RTI, könnte durch die Integration von prädiktiven Modellen und adaptiven Regelungstechniken erfolgen. Durch die Verwendung von prädiktiven Modellen kann der Verfolgungsregler zukünftige Systemzustände vorhersagen und entsprechend reagieren, um den Verfolgungsfehler zu minimieren. Die adaptive Regelungstechnik ermöglicht es dem System, sich an sich ändernde Bedingungen anzupassen und die Regelungsstrategie kontinuierlich zu optimieren, um eine höhere Genauigkeit und Leistung zu erzielen. Die Kombination von prädiktiven Modellen, adaptiver Regelung und RTI kann dazu beitragen, den Verfolgungsfehler weiter zu verbessern und die Anforderungen an Anwendungen mit höheren Genauigkeitsanforderungen wie automatisches Schweißen und Laserkonturierung zu erfüllen.
0
visual_icon
generate_icon
translate_icon
scholar_search_icon
star