核心概念
大規模言語モデル(LLM)を活用して、グラフデータのテスト時トレーニングを行い、分布シフトの問題に対処する。
摘要
本論文は、グラフニューラルネットワーク(GNN)のOut-Of-Distribution(OOD)一般化問題に取り組むために、大規模言語モデル(LLM)を活用したテスト時トレーニング(TTT)のパイプラインを提案している。
具体的には以下の3つの主要な貢献がある:
-
LLMをアノテーターとして活用し、テスト時のモデル適応を行うLLMTTTパイプラインを提案した。
-
事前学習済みモデルの予測シグナルと、ノードの多様性・代表性を考慮した、ハイブリッドなアクティブノード選択手法を開発した。
-
限られた数の雑音ラベルと、未ラベルのノードを効果的に活用するための2段階のトレーニング戦略を設計した。
実験結果と理論分析により、提案手法LLMTTTが既存のOOD一般化手法と比較して優れた性能を示すことが確認された。
統計資料
事前学習済みモデルの予測エントロピーが高いノードほど、LLMによるアノテーションの精度が高い。
LLMによるアノテーションの精度が高いほど、LLMTTT手法の性能が向上する。
ノード選択の多様性と代表性を考慮することで、LLMによるアノテーションの精度が低くても良好な性能が得られる。
2段階のトレーニング戦略により、限られたラベルデータと未ラベルデータを効果的に活用できる。
引述
"LLMTTTは、LLMをアノテーターとして活用し、テスト時のモデル適応を行うパイプラインを提案している。"
"提案手法は、事前学習済みモデルの予測シグナルと、ノードの多様性・代表性を考慮したハイブリッドなアクティブノード選択手法を開発している。"
"2段階のトレーニング戦略により、限られた数の雑音ラベルと未ラベルのノードを効果的に活用している。"