Die Studie stellt einen neuen Rahmen für das "Imprecise Domain Generalisation" vor, der zwei Hauptkomponenten umfasst:
Ein Optimierungsverfahren, das es Lernenden ermöglicht, während des Trainings ungenau zu bleiben und sich nicht auf eine bestimmte Verallgemeinerungsstrategie festzulegen.
Ein Modellrahmen, der es Betreibern ermöglicht, ihre bevorzugte Verallgemeinerungsstrategie zum Zeitpunkt der Bereitstellung zu definieren.
Der Kern des Ansatzes ist die Verwendung einer "Conditional Value-at-Risk" (CVaR) Aggregationsfunktion, die es den Lernenden ermöglicht, eine Bandbreite möglicher Verallgemeinerungsstrategien zu optimieren, ohne sich auf eine bestimmte festlegen zu müssen. Dies steht im Gegensatz zu herkömmlichen Ansätzen, bei denen die Lernenden eine präzise Verallgemeinerungsstrategie wählen müssen.
Die Experimente zeigen, dass der vorgeschlagene Ansatz des "Imprecise Domain Generalisation" im Vergleich zu präzisen Lernansätzen bessere Ergebnisse erzielt, insbesondere wenn die Präferenzen der Betreiber nicht mit denen der Lernenden übereinstimmen. Darüber hinaus erreicht der Ansatz die niedrigste maximale Abweichung von der Optimalität über alle möglichen Betreibereinstellungen.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Anurag Singh... at arxiv.org 04-09-2024
https://arxiv.org/pdf/2404.04669.pdfDeeper Inquiries