Core Concepts
Die Kernaussage dieses Artikels ist, dass die Autoren eine neuartige Strategie der mehrstufigen negativen Stichprobenentnahme entwickeln, die es ermöglicht, negative Knotenbeispiele mit flexibler und kontrollierbarer "Härte" aus dem latenten Raum zu generieren, um die Leistung der Graphlink-Vorhersage zu verbessern.
Abstract
In diesem Artikel präsentieren die Autoren eine neuartige Methode namens "Conditional Diffusion-based Multi-level Negative Sampling (DMNS)", um negative Beispiele für die Graphlink-Vorhersage zu generieren.
Zunächst verwenden sie ein bedingtes Diffusionsmodell, um die Nachbarschaftsverteilung eines Abfrageknotens zu lernen. Aus diesem Modell können sie dann Knoteneinbettungen aus verschiedenen Zeitschritten des Entschärfungsprozesses extrahieren, um negative Beispiele mit unterschiedlichen Schwierigkeitsgraden zu erhalten.
Die Autoren zeigen theoretisch, dass die Dichtefunktion der von ihnen generierten negativen Beispiele dem sub-linearen Positivitätsprinzip folgt, was eine robuste negative Stichprobenentnahme auf Graphen gewährleistet.
Umfangreiche Experimente auf mehreren Benchmark-Datensätzen belegen die Effektivität von DMNS im Vergleich zu state-of-the-art-Methoden für die Graphlink-Vorhersage.
Stats
Die Dichte der von DMNS generierten negativen Beispiele ist sub-linear mit der Dichte der positiven Beispiele korreliert, was eine robuste negative Stichprobenentnahme ermöglicht.
DMNS übertrifft state-of-the-art-Methoden für die Graphlink-Vorhersage auf mehreren Benchmark-Datensätzen.
Quotes
Keine relevanten Zitate gefunden.