核心概念
本稿では、チェックインシーケンスから人間の訪問意図と旅行選好を理解するために、大規模言語モデル(LLM)を活用した新しいフレームワーク「Mobility-LLM」を提案する。
要約
Mobility-LLM: 大規模言語モデルを用いて人間の移動データから訪問意図と旅行選好を学習する
書誌情報: Letian Gong, Yan Lin, Xinyue Zhang, Yiwen Lu, Xuedi Han, Yichen Liu, Shengnan Guo, Youfang Lin, Huaiyu Wan. (2024). Mobility-LLM: Learning Visiting Intentions and Travel Preferences from Human Mobility Data with Large Language Models. Advances in Neural Information Processing Systems, 38.
研究目的: 位置情報サービス(LBS)から得られるチェックインシーケンスデータから、ユーザーの訪問意図や旅行選好を、大規模言語モデル(LLM)を用いて効果的に抽出・分析する新しいフレームワークを提案する。
手法:
チェックインシーケンスの各地点情報を、カテゴリセマンティクスを組み込んだPOI Point-wise Embedding Layer (PPEL)を用いて埋め込む。
PPELの出力をVisiting Intention Memory Network (VIMN)に入力し、各チェックイン記録におけるユーザーの訪問意図を捉える。
Human Travel Preference Prompt (HTPP)を用いて、チェックインシーケンスからユーザーの旅行選好を抽出し、LLMがユーザーの旅行選好をより深く理解するための手がかりとする。
VIMNとHTPPの出力をLLMに入力し、ユーザーの次の訪問場所、到着予定時刻、チェックインシーケンスを生成したユーザーを予測する。
主な結果:
提案手法であるMobility-LLMは、4つのベンチマークデータセットを用いた3つのタスク(Next Location Prediction、Trajectory User Link、Time Prediction)において、既存の最先端モデルを上回る、あるいは同等の性能を達成した。
特に、Trajectory User Linkタスクにおいては、ユーザーの旅行選好を効果的に抽出することで、ユーザーの特定を正確に行うことができ、既存手法と比較して平均47.3%の精度向上を達成した。
また、5%の学習データを用いたfew-shot学習においても、100%の学習データを用いた他のモデルと同等の結果を達成しており、LLMの知識活性化能力の高さが示された。
結論:
Mobility-LLMは、LLMのセマンティック理解能力と文脈情報処理能力を活用することで、LBSにおける人間の移動データの理解を深める効果的なフレームワークである。
提案する再プログラミング手法は、LLMの能力を様々なタスクに効率的に活用することを可能にする。
今後の研究:
今後の研究では、より複雑な移動行動を捉えるために、Mobility-LLMを拡張することが考えられる。
また、プライバシー保護の観点から、ユーザーのプライバシーを保護しながら、移動データを分析する手法についても検討する必要がある。
統計
既存のチェックインシーケンス学習モデルと比較して、平均17.19%の性能向上
SOTAのタスク特化型モデルと比較して、平均MRRで9.32%の性能向上
時間点過程モデルと比較して、平均14.86%の性能向上
既存のTrajectory User Linkモデルと比較して、平均47.3%の精度向上
5%の学習データを用いたfew-shot学習において、NSTPP、DSTPP、S2TUL、ReMVC、CACSRなどの最新のSOTAモデルと比較して、平均でそれぞれ21.4%、21.7%、86.6%、46.2%、45.2%の性能向上