In dieser erweiterten Zusammenfassung wird eine Klasse von Graphenlernen vorgestellt, die auf Fälle anwendbar ist, in denen der zugrunde liegende Graph eine polytopische Unsicherheit aufweist, d.h. der Graph ist nicht genau bekannt, aber seine Parameter oder Eigenschaften variieren innerhalb eines bekannten Bereichs. Durch die Einbeziehung dieser Annahme, dass der Graph in einer polytopischen Menge liegt, in zwei etablierte Graphenlernrahmen stellen wir fest, dass unser Ansatz zu besseren Ergebnissen mit weniger Rechenaufwand führt.
Zunächst wird das Konzept der polytopischen Unsicherheit für Graphen eingeführt. Dabei wird der Graph Laplacian und die Adjazenzmatrix des polytopischen unsicheren Graphen als konvexe Hülle von gegebenen Graphen Laplacians bzw. Adjazenzmatrizen dargestellt.
Anschließend werden zwei Problemformulierungen für das Graphenlernen unter Berücksichtigung der polytopischen Unsicherheit vorgestellt. Die erste Formulierung zielt darauf ab, den Graphen Laplacian zu lernen, während die zweite Formulierung darauf abzielt, die Adjazenzmatrix zu lernen. Beide Formulierungen führen zu konvexen Optimierungsproblemen mit deutlich weniger Optimierungsparametern im Vergleich zu den ursprünglichen Formulierungen ohne polytopische Unsicherheit.
Schließlich werden numerische Beispiele präsentiert, die zeigen, dass der vorgeschlagene Ansatz trotz der Tatsache, dass er den Grundwahrheitsgraphen nicht exakt rekonstruiert, gut abschneidet und kleine Frobenius-Normen sowie perfekte normalisierte Mutual-Information-Werte (NMI) und F-Maße liefert.
Til et andet sprog
fra kildeindhold
arxiv.org
Vigtigste indsigter udtrukket fra
by Masako Kishi... kl. arxiv.org 04-15-2024
https://arxiv.org/pdf/2404.08176.pdfDybere Forespørgsler