Core Concepts
FreshGNN ist ein allgemeiner Rahmen für das Mini-Batch-Training von Graphneuronalen Netzen, der die Speicherzugriffe durch die Verwendung stabiler historischer Einbettungen reduziert, ohne dabei die Genauigkeit zu beeinträchtigen.
Abstract
Der Artikel stellt FreshGNN vor, einen neuen Rahmen für das Mini-Batch-Training von Graphneuronalen Netzen (GNNs), der die Speicherzugriffe durch die Verwendung stabiler historischer Einbettungen reduziert, ohne dabei die Genauigkeit zu beeinträchtigen.
Kernpunkte:
Beim Training großer GNN-Modelle auf umfangreichen Graphdatensätzen ist das Laden von Knoteneigenschaften auf die GPU ein zentraler Flaschenhals. Aufgrund des begrenzten GPU-Speichers ist häufiges Datentransfer zwischen CPU und GPU erforderlich, was die Trainingseffizienz stark beeinträchtigt.
Bestehende Ansätze, die historische Einbettungen verwenden, um dieses Problem zu lösen, leiden unter Genauigkeitsverlusten, da die Qualität der gespeicherten Einbettungen nicht kontrolliert wird.
FreshGNN adressiert diese Limitationen, indem es eine selektive Speicherung stabiler historischer Einbettungen in einem Cache-Mechanismus einführt. Dieser Cache-Mechanismus nutzt Gradienten und Veralterungskriterien, um zuverlässige Einbettungen zu identifizieren und zu speichern.
Zusätzlich zu diesem Cache-Mechanismus umfasst FreshGNN auch Optimierungen auf Systemebene, wie eine cache-bewusste Subgraph-Generierung und effizientes Laden von Knoteneigenschaften, um die Trainingseffizienz weiter zu steigern.
Die Evaluierung zeigt, dass FreshGNN die Trainingsgeschwindigkeit auf großen Graphdatensätzen wie ogbn-papers100M und MAG240M um den Faktor 3,4 bis 20,5 beschleunigen und den Speicherzugriff um 59% reduzieren kann, bei weniger als 1% Genauigkeitsverlust.
Stats
Die Trainingsgeschwindigkeit von FreshGNN ist 3,4x bis 20,5x schneller als der Stand der Technik auf großen Graphdatensätzen wie ogbn-papers100M und MAG240M.
FreshGNN reduziert den Speicherzugriff um 59% im Vergleich zu herkömmlichen Ansätzen.
Quotes
"FreshGNN ist ein allgemeiner Rahmen für das Mini-Batch-Training von Graphneuronalen Netzen, der die Speicherzugriffe durch die Verwendung stabiler historischer Einbettungen reduziert, ohne dabei die Genauigkeit zu beeinträchtigen."
"Die Evaluierung zeigt, dass FreshGNN die Trainingsgeschwindigkeit auf großen Graphdatensätzen wie ogbn-papers100M und MAG240M um den Faktor 3,4 bis 20,5 beschleunigen und den Speicherzugriff um 59% reduzieren kann, bei weniger als 1% Genauigkeitsverlust."