本論文は、グラフニューラルネットワーク(GNN)のOut-Of-Distribution(OOD)一般化問題に取り組むために、大規模言語モデル(LLM)を活用したテスト時トレーニング(TTT)のパイプラインを提案している。
具体的には以下の3つの主要な貢献がある:
LLMをアノテーターとして活用し、テスト時のモデル適応を行うLLMTTTパイプラインを提案した。
事前学習済みモデルの予測シグナルと、ノードの多様性・代表性を考慮した、ハイブリッドなアクティブノード選択手法を開発した。
限られた数の雑音ラベルと、未ラベルのノードを効果的に活用するための2段階のトレーニング戦略を設計した。
実験結果と理論分析により、提案手法LLMTTTが既存のOOD一般化手法と比較して優れた性能を示すことが確認された。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問