Der Artikel präsentiert einen neuen Ansatz namens Cone-Aligned Vector Estimation (CaVE) für das End-to-End-Training von Vorhersage-dann-Optimierung für binäre lineare Programme.
Traditionell wird in diesem Bereich ein zweistufiger Ansatz verwendet, bei dem zunächst ein Regressionsmodell für die Kostenvektoren trainiert wird und dann die Vorhersagen in einem separaten Optimierungsschritt verwendet werden. Dieser Ansatz führt oft zu suboptimalen Lösungen, insbesondere wenn der Trainingsdatensatz klein ist.
CaVE umgeht dieses Problem, indem es das Vorhersage-dann-Optimierung-Problem als Regressionsaufgabe reformuliert. Anstatt direkt auf die Kostenvektoren zu regressieren, zielt CaVE darauf ab, die vorhergesagten Kostenvektoren an den normalen Kegel auszurichten, der dem wahren optimalen Lösungsvektor entspricht. Wenn der vorhergesagte Kostenvektor innerhalb dieses Kegels liegt, ist die Lösung der linearen Relaxation des binären Problems optimal.
Diese Ausrichtung führt nicht nur zu entscheidungsorientierten Lernmodellen, sondern reduziert die Trainingszeit auch dramatisch, da die Notwendigkeit, binäre lineare Programme zur Berechnung einer Verlustfunktion mit ihren Gradienten zu lösen, entfällt. Stattdessen werden einfachere quadratische Projektionsprobleme verwendet.
Die Autoren präsentieren drei Varianten von CaVE, die unterschiedliche Leistungsmerkmale aufweisen. Die beste Variante, CaVE+, erzielt ähnliche Ergebnisse wie der Stand der Technik, benötigt aber nur einen Bruchteil der Trainingszeit, insbesondere bei großen Optimierungsproblemen wie dem Capacitated Vehicle Routing Problem (CVRP), das bisher aufgrund seiner Schwierigkeit nicht von Vorhersage-dann-Optimierung-Methoden profitieren konnte.
Para outro idioma
do conteúdo fonte
arxiv.org
Principais Insights Extraídos De
by Bo Tang,Elia... às arxiv.org 03-19-2024
https://arxiv.org/pdf/2312.07718.pdfPerguntas Mais Profundas