核心概念
大規模言語モデル(LLM)を用いてグラフデータ上で推論タスクを実行するには、グラフをLLMが処理しやすい線形化されたトークンシーケンスに変換する「グラフ線形化」が不可欠であり、本研究では、グラフの中心性、縮退性、ノードの再ラベリングに基づく効果的なグラフ線形化手法を提案する。
要約
大規模言語モデルを用いたグラフ推論のためのグラフ線形化手法: 研究概要
本論文は、大規模言語モデル(LLM)を用いたグラフデータの処理における重要な課題である「グラフ線形化」に焦点を当てた研究論文である。
近年、画像、音声、テキストなど、複数のモダリティを処理できるtransformerベースの大規模事前学習モデルが注目されています。
特に、大規模言語モデル(LLM)は、算術、記号、論理的推論タスクにおいて有望な結果を示しています。
しかし、豊富な構造的および関係情報をカプセル化するユビキタスなデータ構造であるグラフの処理へのLLMの適用は、まだ発展途上の研究分野です。
これは、グラフをtransformerの言語モデリングの目的に適合するようなシーケンシャルなトークンとして表現することの難しさに起因しています。
本研究では、transformerを用いたグラフ機械学習タスクのためのグラフを適切な線形トークンシーケンスとして表現する方法を調査する。
特に、LLMがグラフをよりよく理解できるように、自然言語テキストに見られる局所的な依存関係やグローバルなアラインメントといった特性を反映した、意味のあるグラフの線形化を目指している。