Der Artikel befasst sich mit einem verteilten Optimierungsproblem unter einer gemeinsamen Ungleichheitsbeschränkung. Es wird ein neuer Algorithmus vorgestellt, der sowohl eine garantierte Differenzialgeschütztheit als auch eine genaue Konvergenz zum globalen Optimum sicherstellt, selbst wenn die Zahl der Iterationen gegen unendlich geht.
Der Algorithmus basiert auf einem robusten, differenzialgeschützten Konsensverfahren, das zunächst entwickelt wird. Dieses Konsensverfahren kann trotz persistenter Differenzialschutzrauschen eine genaue Konvergenz erreichen. Darauf aufbauend wird der Optimierungsalgorithmus entwickelt, der die Differenzialgeschütztheit sowohl für die Zielfunktion als auch für die Nebenbedingungen gewährleistet, ohne dabei die Konvergenzgenauigkeit zu beeinträchtigen.
Im Gegensatz zu bestehenden Ansätzen, die entweder die Konvergenzgenauigkeit oder die Differenzialgeschütztheit opfern müssen, kann der vorgestellte Algorithmus beides gleichzeitig sicherstellen. Dabei wird auch die Annahme der strengen Konvexität/Konkavität der Lagrange-Funktion fallen gelassen. Numerische Simulationen bestätigen die Wirksamkeit des Ansatzes.
Para Outro Idioma
do conteúdo original
arxiv.org
Principais Insights Extraídos De
by Yongqiang Wa... às arxiv.org 04-04-2024
https://arxiv.org/pdf/2404.02327.pdfPerguntas Mais Profundas