Der Artikel befasst sich mit der Entwicklung und Analyse von rekursiven Lernalgorithmen für die diskrete-zeitliche adaptive Regelung von Systemen mit übereinstimmender Unsicherheit.
Zunächst wird ein neuartiger rekursiver Proximal-Lernalgorithmus (RPL) vorgestellt, der unter einer schwachen Persistenz der Anregung (PE) asymptotische Stabilität und endliche Reue erreicht. Die Reue skaliert dabei mit der Zeit, die benötigt wird, um die schwache PE-Bedingung zu erfüllen.
Anschließend wird die Reue des weit verbreiteten rekursiven Kleinste-Quadrate-Verfahrens mit exponentiellem Vergessen (RLSFF) in diesem Kontext analysiert. Es wird gezeigt, dass RLSFF unter einer stärkeren PE-Bedingung ebenfalls endliche Reue erreicht, wobei die Reue-Schranke ähnlich zu der des RPL-Verfahrens ist.
Die Leistungsfähigkeit der Algorithmen wird anhand eines numerischen Beispiels aus der Modell-Referenz-Adaptiven-Regelung (MRAC) demonstriert.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Aren Karapet... at arxiv.org 04-03-2024
https://arxiv.org/pdf/2404.02023.pdfDeeper Inquiries