In diesem Artikel wird eine neue Methode namens DYS-Net vorgestellt, um ganzzahlige lineare Programme (ILP) effizient zu lösen. ILPs treten in vielen Anwendungen auf, wie z.B. im Gesundheitswesen, in der Logistik und im Verkehrswesen. Oft hängen die Parameter des ILPs von Kontextdaten ab, die nur indirekt beobachtet werden können. Daher ist es sinnvoll, eine Abbildung von den Kontextdaten zu den optimalen Lösungen zu erlernen.
Der Schlüssel ist, das diskrete ILP durch ein kontinuierliches, regularisiertes Optimierungsproblem zu ersetzen. Bestehende Methoden, die diesen Ansatz verfolgen, skalieren jedoch nicht gut auf große Probleme. DYS-Net überwindet diese Einschränkung, indem es moderne Konzepte der konvexen Optimierung, insbesondere das Davis-Yin-Splitting, nutzt.
Die Autoren zeigen theoretisch, dass der in DYS-Net verwendete Gradientenansatz ein Abstiegsverfahren ist. In numerischen Experimenten zu Kürzesten-Wege- und Rucksack-Problemen demonstrieren sie, dass DYS-Net deutlich effizienter ist als bestehende Methoden und problemlos auf Probleme mit Tausenden von Variablen skaliert.
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問