Core Concepts
Wir präsentieren DYS-Net, eine Methode zum effizienten Lösen großer ganzzahliger linearer Programme, die auf modernen Konzepten der konvexen Optimierung basiert. DYS-Net skaliert mühelos auf Probleme mit Tausenden von Variablen und übertrifft bestehende Methoden in Bezug auf Rechenzeit und Genauigkeit.
Abstract
In diesem Artikel wird eine neue Methode namens DYS-Net vorgestellt, um ganzzahlige lineare Programme (ILP) effizient zu lösen. ILPs treten in vielen Anwendungen auf, wie z.B. im Gesundheitswesen, in der Logistik und im Verkehrswesen. Oft hängen die Parameter des ILPs von Kontextdaten ab, die nur indirekt beobachtet werden können. Daher ist es sinnvoll, eine Abbildung von den Kontextdaten zu den optimalen Lösungen zu erlernen.
Der Schlüssel ist, das diskrete ILP durch ein kontinuierliches, regularisiertes Optimierungsproblem zu ersetzen. Bestehende Methoden, die diesen Ansatz verfolgen, skalieren jedoch nicht gut auf große Probleme. DYS-Net überwindet diese Einschränkung, indem es moderne Konzepte der konvexen Optimierung, insbesondere das Davis-Yin-Splitting, nutzt.
Die Autoren zeigen theoretisch, dass der in DYS-Net verwendete Gradientenansatz ein Abstiegsverfahren ist. In numerischen Experimenten zu Kürzesten-Wege- und Rucksack-Problemen demonstrieren sie, dass DYS-Net deutlich effizienter ist als bestehende Methoden und problemlos auf Probleme mit Tausenden von Variablen skaliert.
Stats
Die Anzahl der Variablen in den untersuchten Kürzesten-Wege-Problemen skaliert quadratisch mit der Gittergröße und reicht von 40 Variablen für ein 5x5-Gitter bis zu 19.800 Variablen für ein 100x100-Gitter.
Die Anzahl der Parameter im neuronalen Netzwerk von DYS-Net reicht von 500 für das 5x5-Gitter bis zu 217.860 für das 100x100-Gitter.
Quotes
"Wir fokussieren uns auf den Fall, in dem X ⊂ Rn eine endliche Menge ist und f(x; d) = w(d)⊤x eine lineare Funktion ist."
"Der Schlüssel ist, das diskrete ILP durch ein kontinuierliches, regularisiertes Optimierungsproblem zu ersetzen."
"DYS-Net überwindet diese Einschränkung, indem es moderne Konzepte der konvexen Optimierung, insbesondere das Davis-Yin-Splitting, nutzt."