toplogo
Sign In

Effiziente Identifizierung der Pareto-optimalen Lösungen in stochastischen mehrkriteriellen Optimierungsproblemen mithilfe von Stochastischem Kriging


Core Concepts
Das Ziel ist es, die Pareto-optimalen Lösungen aus einer endlichen Menge von Kandidaten korrekt zu identifizieren, wenn die Zielfunktionen mit Unsicherheit beobachtet werden (z.B. durch Ausführung eines mehrkriteriellen stochastischen Simulationsoptimierungsverfahrens). Der vorgeschlagene Ansatz verwendet Stochastisches Kriging, um zuverlässige Vorhersageverteilungen der Zielfunktionen zu erstellen, und nutzt diese Informationen, um zu entscheiden, wie die Stichproben neu verteilt werden sollen, um Fehlklassifizierungen zu reduzieren.
Abstract
Der Artikel befasst sich mit bi-objektiven Ranking- und Auswahlproblemen, bei denen das Ziel darin besteht, die Pareto-optimalen Lösungen unter einer endlichen Menge von Kandidaten korrekt zu identifizieren, wenn die beiden Zielfunktionsergebnisse mit Unsicherheit beobachtet werden. Der Ansatz verwendet Stochastisches Kriging, um zuverlässige Vorhersageverteilungen der Zielfunktionen zu erstellen, und nutzt diese Informationen, um zu entscheiden, wie die Stichproben neu verteilt werden sollen, um Fehlklassifizierungen zu reduzieren. Es werden zwei Kriterien vorgeschlagen: die erwartete Hypervolumenänderung (EHVD) und der posteriore Abstand (PD). EHVD allokiert Stichproben an Punkte, die den aktuellen Hypervolumenwert am stärksten verändern können, während PD die Genauigkeit der Vorhersagen für alle Punkte verbessern soll. Darüber hinaus werden zwei Screening-Verfahren vorgestellt, um die Rechenbelastung zu reduzieren. Die experimentellen Ergebnisse zeigen, dass der vorgeschlagene Ansatz die Standard-Allokationsmethode sowie einen bekannten Stand-der-Technik-Algorithmus übertrifft. Darüber hinaus wird gezeigt, dass auch die anderen konkurrierenden Algorithmen von der Verwendung der Stochastischen Kriging-Informationen profitieren, wobei der vorgeschlagene Ansatz jedoch überlegen bleibt.
Stats
"Die Standardabweichung des Rauschens (τj(x)) variiert linear in Bezug auf die Zielfunktionswerte, wobei der Minimalwert an den individuellen Optima der beiden Zielfunktionen liegt." "Der maximale Wert der Standardabweichung des Rauschens liegt zwischen 0,001RFj und 2RFj, wobei RFj die Spannweite der Zielfunktion j ist."
Quotes
"Evidently, the sampling variability may then lead to two types of identification errors: designs that are truly Pareto-optimal can be wrongly considered dominated, or designs that are truly dominated can be considered Pareto-optimal." "The accuracy of the objective estimates can obviously be improved by allocating extra samples, yet it is natural to assume that the resampling budget is limited."

Key Insights Distilled From

by Sebastian Ro... at arxiv.org 03-29-2024

https://arxiv.org/pdf/2209.03919.pdf
Bi-objective Ranking and Selection Using Stochastic Kriging

Deeper Inquiries

Wie könnte der vorgeschlagene Ansatz erweitert werden, um mehr als zwei Zielfunktionen zu berücksichtigen

Um mehr als zwei Zielfunktionen zu berücksichtigen, könnte der vorgeschlagene Ansatz durch die Verwendung von Multi-Output-Stochastic-Kriging erweitert werden. Dies würde es ermöglichen, mehrere Zielfunktionen gleichzeitig zu modellieren und Vorhersagen zu treffen. Durch die Anpassung des Modells und der Allokationskriterien könnte der Algorithmus so angepasst werden, dass er die Pareto-optimale Lösung für mehr als zwei Zielfunktionen identifizieren kann.

Welche Auswirkungen hätte eine andere Struktur des Rauschens (z.B. nicht-linear) auf die Leistung des Algorithmus

Eine andere Struktur des Rauschens, wie z.B. nicht-lineares Rauschen, könnte die Leistung des Algorithmus beeinflussen, da die Vorhersagen der Stochastic-Kriging-Modelle möglicherweise weniger genau sind. Nicht-lineares Rauschen könnte zu komplexeren Beziehungen zwischen den beobachteten und wahren Zielfunktionen führen, was die Vorhersagegenauigkeit beeinträchtigen könnte. Es wäre wichtig, das Modell anzupassen, um mit dieser Art von Rauschen umgehen zu können und die Vorhersagefehler zu minimieren.

Wie könnte der Ansatz angepasst werden, um auch andere Ziele als die Minimierung der Fehlklassifizierung zu berücksichtigen, z.B. die Maximierung der Wahrscheinlichkeit der korrekten Auswahl

Um auch andere Ziele als die Minimierung der Fehlklassifizierung zu berücksichtigen, wie z.B. die Maximierung der Wahrscheinlichkeit der korrekten Auswahl, könnte der Ansatz durch die Integration zusätzlicher Bewertungskriterien erweitert werden. Dies könnte durch die Berücksichtigung von Kosten-Nutzen-Aspekten oder anderen Entscheidungskriterien erfolgen, die über die reine Klassifizierung hinausgehen. Durch die Anpassung der Allokationskriterien und der Bewertungsfunktionen könnte der Algorithmus so angepasst werden, dass er auch andere Ziele optimal berücksichtigt.
0
visual_icon
generate_icon
translate_icon
scholar_search_icon
star