Die Studie präsentiert ein neuartiges Hierarchisches Informationsverbesserungsnetzwerk (HIENet) zur Vorhersage der Popularität von Informationskaskaden in sozialen Netzwerken.
Das Modell besteht aus mehreren Modulen:
Kaskaden-Sequenz-Informationsverarbeitung: Hier werden die Kaskaden-Graphen in Sequenzen von Ausbreitungspfaden zerlegt, um grundlegende Informationsausbreitungsmerkmale zu extrahieren und zu lernen. Eine bidirektionale LSTM-Architektur wird verwendet, um die Interaktionen zwischen diesen Pfaden zu erfassen.
Soziale Graphen-Informationsverarbeitung: Hier wird die latente Einflussstärke jedes Informationsverbreiters durch eine Benutzer-Relevanz-Reasoning-Strategie erfasst, um die semantisch relevantesten Pfade zwischen Benutzern im globalen Kaskaden-Graphen zu finden und komplementäre Informationen der verbundenen Benutzer in diesen Pfaden zu absorbieren.
Teilkaskaden-Graphen-Informationsverarbeitung: Hier werden die Ausbreitungsgraphen in eine Sequenz von Teilkaskaden organisiert, wobei jede Teilkaskade eine Reihe von Teilgraphen enthält. Um die zeitlichen Dynamiken zu erfassen, wird eine zeitliche Positionscodierung verwendet, und ein Graph-Convolutional-Netzwerk (GCN) wird eingesetzt, um die topologische Struktur des Ausbreitungsgraphen zu extrahieren.
Multi-modale Kaskaden-Transformer: Dieser Modul führt eine effektive Fusion der Merkmale aus den drei Modalitäten durch, indem er sie in einen gemeinsamen Merkmalsraum projiziert und so die Heterogenität der Modalitäten reduziert.
Klassifikator: Schließlich wird der Ausgabezustand des [CAS]-Tokens als Eingabe für einen Klassifikator verwendet, um die zukünftige Popularität der Kaskaden vorherzusagen.
Die umfangreichen Experimente auf zwei realen Datensätzen, Sina Weibo und APS, zeigen, dass das vorgeschlagene HIENet-Modell im Vergleich zu anderen State-of-the-Art-Methoden eine bessere Leistung bei der Vorhersage der Kaskadenpopularität erzielt.
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Fanrui Zhang... a las arxiv.org 03-25-2024
https://arxiv.org/pdf/2403.15257.pdfConsultas más profundas