Der Artikel befasst sich mit einem verteilten Optimierungsproblem unter einer gemeinsamen Ungleichheitsbeschränkung. Es wird ein neuer Algorithmus vorgestellt, der sowohl eine garantierte Differenzialgeschütztheit als auch eine genaue Konvergenz zum globalen Optimum sicherstellt, selbst wenn die Zahl der Iterationen gegen unendlich geht.
Der Algorithmus basiert auf einem robusten, differenzialgeschützten Konsensverfahren, das zunächst entwickelt wird. Dieses Konsensverfahren kann trotz persistenter Differenzialschutzrauschen eine genaue Konvergenz erreichen. Darauf aufbauend wird der Optimierungsalgorithmus entwickelt, der die Differenzialgeschütztheit sowohl für die Zielfunktion als auch für die Nebenbedingungen gewährleistet, ohne dabei die Konvergenzgenauigkeit zu beeinträchtigen.
Im Gegensatz zu bestehenden Ansätzen, die entweder die Konvergenzgenauigkeit oder die Differenzialgeschütztheit opfern müssen, kann der vorgestellte Algorithmus beides gleichzeitig sicherstellen. Dabei wird auch die Annahme der strengen Konvexität/Konkavität der Lagrange-Funktion fallen gelassen. Numerische Simulationen bestätigen die Wirksamkeit des Ansatzes.
Vers une autre langue
à partir du contenu source
arxiv.org
Questions plus approfondies