Core Concepts
Das vorgeschlagene GraphRank-Verfahren adressiert die Probleme der falschen negativen Proben, die bei herkömmlichen kontrastiven Lernverfahren auftreten, und erreicht gleichzeitig eine höhere Effizienz.
Abstract
Der Artikel stellt ein neues Verfahren namens GraphRank vor, das für das Graph-Selbstlernverfahren entwickelt wurde. GraphRank zielt darauf ab, die Probleme der falschen negativen Proben zu lösen, die bei herkömmlichen kontrastiven Lernverfahren wie InfoNCE auftreten.
Zunächst wird der Hintergrund des Graph-Kontrastlernens erläutert, bei dem aus einem Graphen zwei Ansichten erzeugt werden, wobei eine Ansicht als Anker dient und die korrespondierenden Knoten in der anderen Ansicht als positive Proben gelten, während alle anderen Knoten als negative Proben betrachtet werden. Das Ziel ist es, den Abstand zwischen dem Ankerknoten und den positiven Proben zu minimieren und den Abstand zu den negativen Proben zu maximieren.
Allerdings behandelt InfoNCE, der am häufigsten verwendete Optimierungsansatz, Knoten derselben Klasse als negative Proben, was zu dem Problem der falschen negativen Proben führt und die Leistung in nachgelagerten Aufgaben beeinträchtigt. Obwohl verschiedene Methoden vorgeschlagen wurden, um die Auswirkungen falscher negativer Proben zu mildern, haben sie weiterhin verschiedene Herausforderungen.
Daher schlägt der Artikel GraphRank vor, ein einfaches, aber effizientes Graph-Kontrastlernverfahren, das das Problem der falschen negativen Proben durch eine Neudefinition des Konzepts der negativen Proben löst. GraphRank erzeugt zwei Ansichten des Graphen durch zufälliges Maskieren von Knoten und Kanten und verwendet dann eine Rangfolgeverlustfunktion als Optimierungsziel. Dabei wird ein Knoten als Zielknoten in einer Ansicht ausgewählt, der entsprechende Knoten in der anderen Ansicht als positive Probe und ein zufällig ausgewählter Knoten als negative Probe betrachtet. Das Ziel ist es, sicherzustellen, dass die Ähnlichkeit zwischen dem Zielknoten und den positiven Proben größer ist als die Ähnlichkeit zwischen dem Zielknoten und den negativen Proben.
Die Experimente zeigen, dass GraphRank die Probleme der falschen negativen Proben effektiv löst und gleichzeitig eine höhere Effizienz aufweist als andere kontrastive Lernverfahren. GraphRank übertrifft die meisten Vergleichsmethoden in Aufgaben auf Knoten-, Kanten- und Graphenebene.
Stats
Die Ähnlichkeit zwischen dem Zielknoten und den positiven Proben sollte größer sein als die Ähnlichkeit zwischen dem Zielknoten und den negativen Proben.
Quotes
"GraphRank kann die oben genannten Probleme effektiv angehen. Erstens wird ein einfacher zufälliger Maskierungsansatz auf GraphRank angewendet, um erweiterte Graphdaten zu erhalten, der keine kompliziert gestalteten Grapherweiterungstechniken zur Gewinnung hochwertiger erweiterter Graphdaten erfordert, noch eine komplizierte Trainingsstrategie zur Stabilisierung des Trainings."
"Zweitens verwenden wir Rangverlust als Zielfunktion. Ähnlich wie der Kontrastivverlust, z.B. InfoNCE, strebt auch der Rangverlust danach, die Übereinstimmung zwischen dem Zielknoten und der positiven Probe zu maximieren. Im Unterschied zum Kontrastivverlust zielt der Zweck des Rangverlusts jedoch darauf ab, die Ähnlichkeit zwischen dem Zielknoten und den positiven Proben größer zu machen als die Ähnlichkeit zwischen dem Zielknoten und den negativen Proben, anstatt die Zielknoten so weit wie möglich von den negativen Proben zu trennen, wie es beim InfoNCE der Fall ist."