Der Artikel führt tiefe submodulare peripterale Netzwerke (DSPNs) ein, eine neuartige parametrische Familie submodularer Funktionen. DSPNs bestehen aus drei Stufen: einer Pillar-Stufe, einer submodularitätserhaltenden, permutationsinvarianten Aggregationsstufe und einer Dach-Stufe.
Die Autoren präsentieren eine neue "peripterale" Verlustfunktion, um DSPNs zu trainieren. Diese Verlustfunktion nutzt numerisch abgestufte Beziehungen zwischen Paaren von Objekten (in diesem Fall Mengen), um das Wissen von einem teuren Zielorakel auf den Lernenden zu übertragen.
Im Gegensatz zu traditionellen kontrastiven Ansätzen verwendet die peripterale Verlustfunktion abgestufte Vergleiche, die mehr nuancierte Informationen als nur binäre Vergleiche extrahieren können. Außerdem können Mengen beliebiger Größe (nicht nur Paare) kontrastiert werden.
Die Autoren präsentieren auch neuartige Strategien zum Sampling von (E, M) Paaren, einschließlich einer aktiv-lernbasierten submodularen Rückkopplung.
Die Experimente zeigen, dass DSPNs, die mit der peripteralen Verlustfunktion trainiert wurden, effektiver sind beim Lernen von Submodularität aus einer teuren Ziel-Submodularfunktion und überlegen sind in nachgelagerten Aufgaben wie experimentellem Design und Streaming-Anwendungen.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Gantavya Bha... at arxiv.org 03-14-2024
https://arxiv.org/pdf/2403.08199.pdfDeeper Inquiries