Core Concepts
CaVE ist ein neuer Ansatz für das End-to-End-Training von Vorhersage-dann-Optimierung, der die vorhergesagten Kostenvektoren an den normalen Kegel des wahren optimalen Lösungsvektors ausrichtet. Dadurch wird die Notwendigkeit umgangen, das ursprüngliche binäre lineare Programm während des Trainings zu lösen, was zu einer deutlichen Beschleunigung der Trainingszeit führt, ohne Einbußen bei der Lösungsqualität.
Abstract
Der Artikel präsentiert einen neuen Ansatz namens Cone-Aligned Vector Estimation (CaVE) für das End-to-End-Training von Vorhersage-dann-Optimierung für binäre lineare Programme.
Traditionell wird in diesem Bereich ein zweistufiger Ansatz verwendet, bei dem zunächst ein Regressionsmodell für die Kostenvektoren trainiert wird und dann die Vorhersagen in einem separaten Optimierungsschritt verwendet werden. Dieser Ansatz führt oft zu suboptimalen Lösungen, insbesondere wenn der Trainingsdatensatz klein ist.
CaVE umgeht dieses Problem, indem es das Vorhersage-dann-Optimierung-Problem als Regressionsaufgabe reformuliert. Anstatt direkt auf die Kostenvektoren zu regressieren, zielt CaVE darauf ab, die vorhergesagten Kostenvektoren an den normalen Kegel auszurichten, der dem wahren optimalen Lösungsvektor entspricht. Wenn der vorhergesagte Kostenvektor innerhalb dieses Kegels liegt, ist die Lösung der linearen Relaxation des binären Problems optimal.
Diese Ausrichtung führt nicht nur zu entscheidungsorientierten Lernmodellen, sondern reduziert die Trainingszeit auch dramatisch, da die Notwendigkeit, binäre lineare Programme zur Berechnung einer Verlustfunktion mit ihren Gradienten zu lösen, entfällt. Stattdessen werden einfachere quadratische Projektionsprobleme verwendet.
Die Autoren präsentieren drei Varianten von CaVE, die unterschiedliche Leistungsmerkmale aufweisen. Die beste Variante, CaVE+, erzielt ähnliche Ergebnisse wie der Stand der Technik, benötigt aber nur einen Bruchteil der Trainingszeit, insbesondere bei großen Optimierungsproblemen wie dem Capacitated Vehicle Routing Problem (CVRP), das bisher aufgrund seiner Schwierigkeit nicht von Vorhersage-dann-Optimierung-Methoden profitieren konnte.
Stats
Die Kosten der Kanten in einem Graphen für das Shortest Path Problem können durch den Ausdruck "1/3.5deg(1/sqrt(5(Bxi)j + 3)deg + 1) * ϵij" berechnet werden, wobei deg der Polynomgrad der Merkmalskartierung ist und ϵij ein zufälliges Rauschen zwischen 0,5 und 1,5 ist.
Für das Traveling Salesperson Problem (TSP) und das Capacitated Vehicle Routing Problem (CVRP) setzen sich die Kantenkosten aus zwei Teilen zusammen: Euklidische Distanzen zwischen den Knoten und einem Term, der dem Shortest Path Problem ähnelt, nämlich "(1/sqrt(10(Bxi)j + 3)deg) * ϵij".
Quotes
"CaVE ist ein neuer Ansatz für das End-to-End-Training von Vorhersage-dann-Optimierung, der die vorhergesagten Kostenvektoren an den normalen Kegel des wahren optimalen Lösungsvektors ausrichtet."
"Diese Ausrichtung führt nicht nur zu entscheidungsorientierten Lernmodellen, sondern reduziert die Trainingszeit auch dramatisch, da die Notwendigkeit, binäre lineare Programme zur Berechnung einer Verlustfunktion mit ihren Gradienten zu lösen, entfällt."