核心概念
本文提出了一種名為LEADING的高效演算法,用於在文字屬性圖上進行端到端語言模型微調,以解決現有方法在資料效率和計算效率方面的局限性。
文獻資訊
Rui Xue, Xipeng Shen, Ruozhou Yu, and Xiaorui Liu. 2024. Efficient End-to-end Language Model Fine-tuning on Graphs. In . ACM, New York, NY, USA, 13 pages. https://doi.org/10.1145/nnnnnnn.nnnnnnn
研究目標
本研究旨在解決現有將預先訓練的語言模型 (LM) 應用於文字屬性圖 (TAG) 時所面臨的資料效率和計算效率問題。
方法
**鄰居解耦:**將目標節點和鄰居節點的編碼分離成兩個不同的流程,以減少重複的 LM 編碼計算。
**隱式圖建模:**利用隱式模型(如 Neural ODE、IGNN、DEQ)來有效地計算前向傳播,並使用 APPNP 作為迭代求解器來逼近固定點解,從而減少傳播冗餘。
主要發現
LEADING 在低標註和高標註設定下均優於其他 LM 微調策略,尤其是在標註資料有限的情況下,有效地將 LM 的知識轉移到下游圖學習任務中。
與現有的可擴展 GNN 訓練演算法相比,LEADING 在記憶體成本方面表現出色,並且是唯一能夠在 ogbn-arxiv 上進行端到端訓練的模型。
消融研究表明,鄰居解耦和隱式圖建模在降低記憶體成本方面都發揮著至關重要的作用。
主要結論
LEADING 演算法提供了一種高效且可擴展的解決方案,用於在 TAG 上微調 LM,在資料效率和計算效率方面均有顯著提升。
意義
這項研究為在 TAG 上進行 LM 微調提供了新的思路,並為各種 LM 和圖學習任務提供了一個有前景的解決方案。
局限性和未來研究
未來的研究方向包括探索更先進的隱式圖建模技術,以及將 LEADING 應用於其他圖學習任務,如連結預測和圖分類。
統計資料
在 ogbn-arxiv 資料集上,使用批次大小為 1024 的兩層 GNN 進行訓練時,每個節點的節點特徵平均作為目標節點被編碼一次,但作為鄰居節點被編碼 19 次。
對於需要從 5 跳鄰居中取樣的 5 層 GNN,每個節點的節點特徵平均作為鄰居節點被編碼 96 次。