最近の研究では、テキスト属性付きグラフ(TAGs)における表現学習が重要な問題となっています。従来のGNNパイプラインは、各ノードのテキスト属性を浅いまたは手作りの特徴量に変換して扱っていました。最近では、大規模言語モデル(LLMs)を利用してこれらのパイプラインを強化する取り組みが行われています。本研究では、LLMsを活用してテキスト情報を特徴量として捉えることに焦点を当て、これらの特徴量を下流タスクでGNNの性能向上に活用します。主な革新点は、説明文を特徴量として使用することです。我々はLLMにゼロショット分類を実行させ、その意思決定プロセスに対するテキスト説明を要求し、これらの説明文を下流GNN向けに有益な特徴量に変換するためのLLM-to-LMインタープリターを設計します。実験では、我々の手法がCoraやPubMedなどの既存データセットだけでなく、新しく導入されたtape-arxiv23データセットでも最先端の結果を達成しました。
To Another Language
from source content
arxiv.org
Viktige innsikter hentet fra
by Xiaoxin He,X... klokken arxiv.org 02-29-2024
https://arxiv.org/pdf/2305.19523.pdfDypere Spørsmål