Core Concepts
大規模言語モデルを用いて、グラフ構造情報を効率的に取り入れることで、テキストに富むグラフの表現学習を高精度化する。
Abstract
本研究では、テキストに富むグラフの表現学習のために、大規模言語モデル(LLM)を活用する新しい手法GPEFT(Graph-aware Parameter-Efficient Fine-Tuning)を提案している。
主な特徴は以下の通り:
グラフニューラルネットワーク(GNN)を用いてグラフ構造情報をエンコードし、LLMの入力にグラフプロンプトとして組み込む。これにより、LLMがグラフ構造を直接考慮できるようになる。
GNNプロンプトエンコーダーの事前学習を行い、LLMの単語表現との整合性を高める。これにより、グラフ表現学習の精度が向上する。
パラメータ効率的なファインチューニング(PEFT)手法を用いることで、LLMのほとんどのパラメータを固定したまま、少数のパラメータのみを更新できる。これにより、計算コストを大幅に削減できる。
実験では、8つのテキストに富むグラフデータセットを用いて、リンク予測タスクでの性能評価を行った。その結果、従来手法と比べて平均2%の精度向上を達成し、同時に計算効率も大幅に改善できることを示した。
Stats
大規模言語モデルを用いることで、マスクド言語モデルと比べて10%以上の精度向上が得られる。
提案手法GPEFTは、ベースラインのPEFT-LLaMaと比べて、MAGデータセットで2.6%、Amazon Reviewデータセットで1.8%の精度向上を達成した。
GPEFTの事前学習フェーズは、MAGデータセットでは6%の精度向上に寄与した。
Quotes
"大規模言語モデル(LLMs)は、テキストに富むグラフの表現学習において強力な特徴エンコーダーとして機能する。"
"慎重にファインチューニングされたGNN-LMモデル(GPEFTやPATTON)は、ブラックボックスLLMによって生成された埋め込みよりも優れた性能を発揮する。"
"事前学習は、特に学術テキストに富むグラフでの精度向上に寄与する。"